ВУЗ:
Составители:
23
тельный и его необходимо скорректировать. Добавим к вектору ве-
сов
w вектор входа p , и тогда произведение (w
T
+ p
T
) p = w
T
p + p
T
p
изменится на положительную величину, а после нескольких таких
шагов вход функции активации станет положительным и вектор вхо-
да будет классифицирован правильно. При этом изменяется настрой-
ка весов.
3.
Выход персептрона равен 1, а должен быть равен 0 (a = 1, t = 0
и e = t – 0 = –1 ). В этом случае вход функции активации
w
Т
p поло-
жительный и его необходимо скорректировать. Вычтем из вектора
весов w вектор входа p, и тогда произведение (w
T
– p
T
) p = w
T
p – p
T
p
изменится на отрицательную величину, а после нескольких таких
шагов вход функции активации станет отрицательным и вектор вхо-
да будет классифицирован правильно. При этом изменяется настрой-
ка весов.
Теперь правило настройки (обучения) персептрона можно запи-
сать, связав изменение вектора весов Δ
w с погрешностью e = t – a :
⎪
⎩
⎪
⎨
⎧
−=−
=
=
=Δ
.1если,
;1если,
;0если,0
T
T
e
e
e
p
pw
Все три случая можно описать одним соотношением
Δw = (t
– a) p
T
= e p
T
.
Можно получить аналогичное выражение для изменения смеще-
ния, учитывая, что смещение можно рассматривать как вес для еди-
ничного входа:
Δb = (t – a) 1 = e.
В случае нескольких нейронов эти соотношения обобщаются сле-
дующим образом:
()
()
⎪
⎩
⎪
⎨
⎧
=−=Δ
−=Δ
.
;
TT
eatb
patW
Тогда правило настройки (обучения) персептрона можно записать
в следующей форме:
тельный и его необходимо скорректировать. Добавим к вектору ве-
сов w вектор входа p , и тогда произведение (wT + pT) p = wT p + pT p
изменится на положительную величину, а после нескольких таких
шагов вход функции активации станет положительным и вектор вхо-
да будет классифицирован правильно. При этом изменяется настрой-
ка весов.
3. Выход персептрона равен 1, а должен быть равен 0 (a = 1, t = 0
и e = t – 0 = –1 ). В этом случае вход функции активации wТp поло-
жительный и его необходимо скорректировать. Вычтем из вектора
весов w вектор входа p, и тогда произведение (wT – pT) p = wT p – pT p
изменится на отрицательную величину, а после нескольких таких
шагов вход функции активации станет отрицательным и вектор вхо-
да будет классифицирован правильно. При этом изменяется настрой-
ка весов.
Теперь правило настройки (обучения) персептрона можно запи-
сать, связав изменение вектора весов Δw с погрешностью e = t – a :
⎧ 0, если e = 0;
⎪
Δw = ⎨ p T , если e = 1;
⎪− p T , если e = −1.
⎩
Все три случая можно описать одним соотношением
Δw = (t – a) pT = e pT.
Можно получить аналогичное выражение для изменения смеще-
ния, учитывая, что смещение можно рассматривать как вес для еди-
ничного входа:
Δb = (t – a) 1 = e.
В случае нескольких нейронов эти соотношения обобщаются сле-
дующим образом:
⎧⎪ ΔW T = (t − a ) p T ;
⎨
⎪⎩ Δb = (t − a ) = e.
Тогда правило настройки (обучения) персептрона можно записать
в следующей форме:
23
Страницы
- « первая
- ‹ предыдущая
- …
- 21
- 22
- 23
- 24
- 25
- …
- следующая ›
- последняя »
