ВУЗ:
Составители:
49
(
)
1
η ,
ttttt
wwwwpw
+
=+D=+
rrrrrr
(4.4)
где
(
)
pw
rr
– направление в многомерном пространстве
w
r
. Для правильного
выбора
(
)
pw
rr
необходимо определение вектора градиента относительно ве-
сов всех слоев сети, однако эта задача имеет очевидное решение только для
весов выходного слоя. Для других слоев используется алгоритм ОРО, в соот-
ветствии с которым каждый цикл обучения состоит из следующих этапов:
1. По значениям компонент x
j
входного вектора
x
r
расчет выходных
сигналов
()
m
i
u
всех слоев сети, а также соответствующих производных
(
)
()
()
m
i
m
i
dfu
du
функций активации каждого слоя (m – число слоев НС).
2. Создание сети ОРО путем замены выхода на вход, функций акти-
вации – их производными, входного сигнала
x
r
– разностью
yd
-
r
r
.
3. Уточнение весов на основе результатов п. 1, 2 для оригинальной
НС и сети ОРО.
4. Повторение процесса для всех обучающих выборок вплоть до
выполнения условия остановки обучения (снижения нормы градиента до
заданного e, выполнения определенного количества шагов и т. п.).
Рассмотрим метод ОРО более подробно, полагая НС с одним скры-
тым слоем и режим обучения «online», когда
(
)
Ew
r
определяется только
одной обучающей парой. С учетом обозначений рисунка 4.2
( )
2
2
(2)(2)(1)
10100
11
,
22
MKMKN
kiikkiijjk
kikij
Ewfwudfwfwxd
=====
éù
ìü
æö
éù
æö
ïï
=-=-
êú
íý
ç÷
êú
ç÷
èø
ïï
ëû
êú
èø
îþ
ëû
ååååå
r
(4.5)
откуда для компонентов градиента относительно выходного слоя получаем
( )
(
)
(2)
(2)
(2)(2)
δ .
i
iijij
iji
dfu
E
yduu
wdu
¶
=-=
¶
(4.6)
Аналогично, для нейронов скрытого слоя
( ) ( )
(
)
(
)
(2)(1)
(2)(1)
(1)(1)(2)(1)
11
.
MM
kk
ki
kkkkkijij
kk
ijiijkk
dfudfu
Edydu
ydydwxx
wdudwdudu
d
==
¶
=-=-=
¶
åå
(4.7)
Обе полученные формулы имеют аналогичную структуру, дающую описа-
ние градиента в виде произведения двух сигналов: первый соответствует
� � � � � � wt �1 � wt � �wt � wt � ηp � wt � , (4.4) � � � где p � w � – направление в многомерном пространстве w . Для правильного � � выбора p � w � необходимо определение вектора градиента относительно ве- сов всех слоев сети, однако эта задача имеет очевидное решение только для весов выходного слоя. Для других слоев используется алгоритм ОРО, в соот- ветствии с которым каждый цикл обучения состоит из следующих этапов: � 1. По значениям компонент xj входного вектора x расчет выходных сигналов ui( m ) всех слоев сети, а также соответствующих производных df � ui( m ) � функций активации каждого слоя (m – число слоев НС). dui( m ) 2. Создание сети ОРО путем замены выхода на вход, функций акти- � � � вации – их производными, входного сигнала x – разностью y � d . 3. Уточнение весов на основе результатов п. 1, 2 для оригинальной НС и сети ОРО. 4. Повторение процесса для всех обучающих выборок вплоть до выполнения условия остановки обучения (снижения нормы градиента до заданного �, выполнения определенного количества шагов и т. п.). Рассмотрим метод ОРО более подробно, полагая НС с одним скры- � тым слоем и режим обучения «online», когда E � w � определяется только одной обучающей парой. С учетом обозначений рисунка 4.2 2 � 1 M � � 2 � 1 � � K (2) � M �� K (2) � N (1) � �� E � w � � � � f � � wki ui � � d k � � � � f �� wki f � � wij x j � � � d k � , (4.5) 2 k �1 � � i �0 � � 2 k �1 � � i �0 � j �0 �� � откуда для компонентов градиента относительно выходного слоя получаем �E � � yi � di � � � df ui(2) u j � δi(2)u j . (4.6) � wij (2) dui(2) Аналогично, для нейронов скрытого слоя �E M dyk dui M df � uk(2) � (2) df � uk(1) � � � � yk � d k � � � � yk � d k � wki x j � � i(1) x j . (4.7) �wij (1) k �1 (1) dui dwij k �1 duk (2) duk (1) Обе полученные формулы имеют аналогичную структуру, дающую описа- ние градиента в виде произведения двух сигналов: первый соответствует 49
Страницы
- « первая
- ‹ предыдущая
- …
- 47
- 48
- 49
- 50
- 51
- …
- следующая ›
- последняя »