ВУЗ:
Составители:
116
ния сложной функции:
.)1(
);1(
);(
jkkk
jk
k
k
k
kjk
kkk
k
k
kk
a
kkk
k
yyy
V
x
x
y
y
E
V
E
yy
x
y
y
E
x
E
Yy
y
E
Здесь учтено полезное свойство сигмоидальной функции
)(xf : ее
производная выражается только через само значение функции,
)1()( ffxf
. Таким образом, все необходимые величины для под-
стройки весов выходного слоя
V
получены.
Шаг
3. На этом шаге выполняется подстройка весов скрытого слоя. Ис-
пользуем градиентный метод:
ij
ijij
W
E
htWtW
)()1( .
Вычисления производных выполняются аналогично, за исключени-
ем некоторого усложнения формулы для ошибки
j
d :
.)1()1()1(
;)1(
);1(
a
ijj
k
jkkkk
a
ijjj
ij
j
j
j
jij
k
jkkkk
k
j
k
k
j
j
kkk
k
k
kk
XyyVyyXyy
W
x
x
y
y
E
W
E
Vyy
y
x
x
E
y
E
yy
x
y
y
E
x
E
При вычислении
j
d здесь и был применен принцип обратного рас-
пространения ошибки: частные производные берутся только по пе-
ременным последующего слоя. По полученным формулам модифи-
цируются веса нейронов скрытого слоя. Если в нейронной сети име-
ется несколько скрытых слоев, процедура обратного распростране-
ния применяется последовательно для каждого из них, начиная со
слоя, предшествующего
выходному, и далее до слоя, следующего за
входным. При этом формулы сохраняют свой вид с заменой элемен-
тов выходного слоя на элементы соответствующего скрытого слоя.
Страницы
- « первая
- ‹ предыдущая
- …
- 114
- 115
- 116
- 117
- 118
- …
- следующая ›
- последняя »
