Моделирование искусственных нейронных сетей в системе MATLAB. Часть 1. Введение. Донской Д.А - 23 стр.

UptoLike

23
тельный и его необходимо скорректировать. Добавим к вектору ве-
сов
w вектор входа p , и тогда произведение (w
T
+ p
T
) p = w
T
p + p
T
p
изменится на положительную величину, а после нескольких таких
шагов вход функции активации станет положительным и вектор вхо-
да будет классифицирован правильно. При этом изменяется настрой-
ка весов.
3.
Выход персептрона равен 1, а должен быть равен 0 (a = 1, t = 0
и e = t – 0 = –1 ). В этом случае вход функции активации
w
Т
p поло-
жительный и его необходимо скорректировать. Вычтем из вектора
весов w вектор входа p, и тогда произведение (w
T
p
T
) p = w
T
p – p
T
p
изменится на отрицательную величину, а после нескольких таких
шагов вход функции активации станет отрицательным и вектор вхо-
да будет классифицирован правильно. При этом изменяется настрой-
ка весов.
Теперь правило настройки (обучения) персептрона можно запи-
сать, связав изменение вектора весов Δ
w с погрешностью e = ta :
=
=
=
=Δ
.1если,
;1если,
;0если,0
T
T
e
e
e
p
pw
Все три случая можно описать одним соотношением
Δw = (t
a) p
T
= e p
T
.
Можно получить аналогичное выражение для изменения смеще-
ния, учитывая, что смещение можно рассматривать как вес для еди-
ничного входа:
Δb = (t a) 1 = e.
В случае нескольких нейронов эти соотношения обобщаются сле-
дующим образом:
()
()
==Δ
=Δ
.
;
TT
eatb
patW
Тогда правило настройки (обучения) персептрона можно записать
в следующей форме:
тельный и его необходимо скорректировать. Добавим к вектору ве-
сов w вектор входа p , и тогда произведение (wT + pT) p = wT p + pT p
изменится на положительную величину, а после нескольких таких
шагов вход функции активации станет положительным и вектор вхо-
да будет классифицирован правильно. При этом изменяется настрой-
ка весов.
   3. Выход персептрона равен 1, а должен быть равен 0 (a = 1, t = 0
и e = t – 0 = –1 ). В этом случае вход функции активации wТp поло-
жительный и его необходимо скорректировать. Вычтем из вектора
весов w вектор входа p, и тогда произведение (wT – pT) p = wT p – pT p
изменится на отрицательную величину, а после нескольких таких
шагов вход функции активации станет отрицательным и вектор вхо-
да будет классифицирован правильно. При этом изменяется настрой-
ка весов.
   Теперь правило настройки (обучения) персептрона можно запи-
сать, связав изменение вектора весов Δw с погрешностью e = t – a :
                             ⎧ 0, если e = 0;
                             ⎪
                        Δw = ⎨ p T , если e = 1;
                             ⎪− p T , если e = −1.
                             ⎩
  Все три случая можно описать одним соотношением
                       Δw = (t – a) pT = e pT.
  Можно получить аналогичное выражение для изменения смеще-
ния, учитывая, что смещение можно рассматривать как вес для еди-
ничного входа:
                        Δb = (t – a) 1 = e.
  В случае нескольких нейронов эти соотношения обобщаются сле-
дующим образом:
                       ⎧⎪ ΔW T = (t − a ) p T ;
                        ⎨
                        ⎪⎩ Δb = (t − a ) = e.
   Тогда правило настройки (обучения) персептрона можно записать
в следующей форме:




                                 23