ВУЗ:
Составители:
23
тельный и его необходимо скорректировать. Добавим к вектору ве-
сов
w вектор входа p , и тогда произведение (w
T
+ p
T
) p = w
T
p + p
T
p
изменится на положительную величину, а после нескольких таких
шагов вход функции активации станет положительным и вектор вхо-
да будет классифицирован правильно. При этом изменяется настрой-
ка весов.
3.
Выход персептрона равен 1, а должен быть равен 0 (a = 1, t = 0
и e = t – 0 = –1 ). В этом случае вход функции активации
w
Т
p поло-
жительный и его необходимо скорректировать. Вычтем из вектора
весов w вектор входа p, и тогда произведение (w
T
– p
T
) p = w
T
p – p
T
p
изменится на отрицательную величину, а после нескольких таких
шагов вход функции активации станет отрицательным и вектор вхо-
да будет классифицирован правильно. При этом изменяется настрой-
ка весов.
Теперь правило настройки (обучения) персептрона можно запи-
сать, связав изменение вектора весов Δ
w с погрешностью e = t – a :
⎪
⎩
⎪
⎨
⎧
−=−
=
=
=Δ
.1если,
;1если,
;0если,0
T
T
e
e
e
p
pw
Все три случая можно описать одним соотношением
Δw = (t
– a) p
T
= e p
T
.
Можно получить аналогичное выражение для изменения смеще-
ния, учитывая, что смещение можно рассматривать как вес для еди-
ничного входа:
Δb = (t – a) 1 = e.
В случае нескольких нейронов эти соотношения обобщаются сле-
дующим образом:
()
()
⎪
⎩
⎪
⎨
⎧
=−=Δ
−=Δ
.
;
TT
eatb
patW
Тогда правило настройки (обучения) персептрона можно записать
в следующей форме:
тельный и его необходимо скорректировать. Добавим к вектору ве- сов w вектор входа p , и тогда произведение (wT + pT) p = wT p + pT p изменится на положительную величину, а после нескольких таких шагов вход функции активации станет положительным и вектор вхо- да будет классифицирован правильно. При этом изменяется настрой- ка весов. 3. Выход персептрона равен 1, а должен быть равен 0 (a = 1, t = 0 и e = t – 0 = –1 ). В этом случае вход функции активации wТp поло- жительный и его необходимо скорректировать. Вычтем из вектора весов w вектор входа p, и тогда произведение (wT – pT) p = wT p – pT p изменится на отрицательную величину, а после нескольких таких шагов вход функции активации станет отрицательным и вектор вхо- да будет классифицирован правильно. При этом изменяется настрой- ка весов. Теперь правило настройки (обучения) персептрона можно запи- сать, связав изменение вектора весов Δw с погрешностью e = t – a : ⎧ 0, если e = 0; ⎪ Δw = ⎨ p T , если e = 1; ⎪− p T , если e = −1. ⎩ Все три случая можно описать одним соотношением Δw = (t – a) pT = e pT. Можно получить аналогичное выражение для изменения смеще- ния, учитывая, что смещение можно рассматривать как вес для еди- ничного входа: Δb = (t – a) 1 = e. В случае нескольких нейронов эти соотношения обобщаются сле- дующим образом: ⎧⎪ ΔW T = (t − a ) p T ; ⎨ ⎪⎩ Δb = (t − a ) = e. Тогда правило настройки (обучения) персептрона можно записать в следующей форме: 23
Страницы
- « первая
- ‹ предыдущая
- …
- 21
- 22
- 23
- 24
- 25
- …
- следующая ›
- последняя »