ВУЗ:
Составители:
49
(
)
1
η ,
ttttt
wwwwpw
+
=+D=+
rrrrrr
(4.4)
где
(
)
pw
rr
– направление в многомерном пространстве
w
r
. Для правильного
выбора
(
)
pw
rr
необходимо определение вектора градиента относительно ве-
сов всех слоев сети, однако эта задача имеет очевидное решение только для
весов выходного слоя. Для других слоев используется алгоритм ОРО, в соот-
ветствии с которым каждый цикл обучения состоит из следующих этапов:
1. По значениям компонент x
j
входного вектора
x
r
расчет выходных
сигналов
()
m
i
u
всех слоев сети, а также соответствующих производных
(
)
()
()
m
i
m
i
dfu
du
функций активации каждого слоя (m – число слоев НС).
2. Создание сети ОРО путем замены выхода на вход, функций акти-
вации – их производными, входного сигнала
x
r
– разностью
yd
-
r
r
.
3. Уточнение весов на основе результатов п. 1, 2 для оригинальной
НС и сети ОРО.
4. Повторение процесса для всех обучающих выборок вплоть до
выполнения условия остановки обучения (снижения нормы градиента до
заданного e, выполнения определенного количества шагов и т. п.).
Рассмотрим метод ОРО более подробно, полагая НС с одним скры-
тым слоем и режим обучения «online», когда
(
)
Ew
r
определяется только
одной обучающей парой. С учетом обозначений рисунка 4.2
( )
2
2
(2)(2)(1)
10100
11
,
22
MKMKN
kiikkiijjk
kikij
Ewfwudfwfwxd
=====
éù
ìü
æö
éù
æö
ïï
=-=-
êú
íý
ç÷
êú
ç÷
èø
ïï
ëû
êú
èø
îþ
ëû
ååååå
r
(4.5)
откуда для компонентов градиента относительно выходного слоя получаем
( )
(
)
(2)
(2)
(2)(2)
δ .
i
iijij
iji
dfu
E
yduu
wdu
¶
=-=
¶
(4.6)
Аналогично, для нейронов скрытого слоя
( ) ( )
(
)
(
)
(2)(1)
(2)(1)
(1)(1)(2)(1)
11
.
MM
kk
ki
kkkkkijij
kk
ijiijkk
dfudfu
Edydu
ydydwxx
wdudwdudu
d
==
¶
=-=-=
¶
åå
(4.7)
Обе полученные формулы имеют аналогичную структуру, дающую описа-
ние градиента в виде произведения двух сигналов: первый соответствует
� � � � � �
wt �1 � wt � �wt � wt � ηp � wt � , (4.4)
� � �
где p � w � – направление в многомерном пространстве w . Для правильного
� �
выбора p � w � необходимо определение вектора градиента относительно ве-
сов всех слоев сети, однако эта задача имеет очевидное решение только для
весов выходного слоя. Для других слоев используется алгоритм ОРО, в соот-
ветствии с которым каждый цикл обучения состоит из следующих этапов:
�
1. По значениям компонент xj входного вектора x расчет выходных
сигналов ui( m ) всех слоев сети, а также соответствующих производных
df � ui( m ) �
функций активации каждого слоя (m – число слоев НС).
dui( m )
2. Создание сети ОРО путем замены выхода на вход, функций акти-
� � �
вации – их производными, входного сигнала x – разностью y � d .
3. Уточнение весов на основе результатов п. 1, 2 для оригинальной
НС и сети ОРО.
4. Повторение процесса для всех обучающих выборок вплоть до
выполнения условия остановки обучения (снижения нормы градиента до
заданного �, выполнения определенного количества шагов и т. п.).
Рассмотрим метод ОРО более подробно, полагая НС с одним скры-
�
тым слоем и режим обучения «online», когда E � w � определяется только
одной обучающей парой. С учетом обозначений рисунка 4.2
2
� 1 M � �
2
� 1 � � K (2) �
M �� K (2) � N (1) � ��
E � w � � � � f � � wki ui � � d k � � � � f �� wki f � � wij x j � � � d k � , (4.5)
2 k �1 � � i �0 � � 2 k �1 � � i �0 � j �0 �� �
откуда для компонентов градиента относительно выходного слоя получаем
�E
� � yi � di �
� �
df ui(2)
u j � δi(2)u j . (4.6)
� wij
(2)
dui(2)
Аналогично, для нейронов скрытого слоя
�E M
dyk dui M df � uk(2) � (2) df � uk(1) �
� � � yk � d k � � � � yk � d k � wki x j � � i(1) x j . (4.7)
�wij
(1)
k �1
(1)
dui dwij k �1 duk (2)
duk (1)
Обе полученные формулы имеют аналогичную структуру, дающую описа-
ние градиента в виде произведения двух сигналов: первый соответствует
49
Страницы
- « первая
- ‹ предыдущая
- …
- 47
- 48
- 49
- 50
- 51
- …
- следующая ›
- последняя »
