ВУЗ:
Составители:
27
Основным критерием для сравнения эффективности различных ме-
тодов обучения ИНС являются вычислительные затраты, то есть количест-
во циклов (время) плюс количество операций.
3.2.1. Градиентные методы
Согласно теории среди детерминированных методов оптимизации наи-
более эффективными считаются градиентные методы, связанные с разложе-
нием целевой функции
()
Ew
r
в ряд Тейлора в окрестности
p
r
решения
w
r
[ ]
3
1
()()()()(),
2
T
T
EwpEwgwppHwpOh
+=+++
rrrrrrrrr
(3.2)
где
12
(),,,
T
n
EEE
gwE
www
éù
¶¶¶
=Ñ=
êú
¶¶¶
ëû
rr
K – вектор градиента,
hp
º
r
, а симмет-
ричная квадратная матрица
()
Hw
r
производных 2-го порядка
22
111
22
1
()
n
nnn
EE
wwww
Hw
EE
wwww
éù
¶¶
êú
¶¶¶¶
êú
êú
=
êú
¶¶
êú
êú
¶¶¶¶
ëû
L
r
MM
L
называется гессианом.
Выражение (3.2) можно считать квадратичным приближением
()
Ew
r
в
ближайшей окрестности w. Точкой решения
p
w
r
будем считать точку, где
достигается минимум
()
Ew
r
с точностью O(h
3
), то есть
()0
p
gw
=
rr
, а гессиан
()
Hw
r
– положительно определен.
В процессе нахождения минимума
()
Ew
r
направление поиска
p
r
и
шаг h подбираются таким образом, чтобы для каждой очередной точки
(
)
1
1
η
tttt
wtwwp
+
+º=+
rrrr
выполнялось условие
(
)
(
)
1
tt
EwEw
+
<
rr
. Поиск про-
должается, пока
(
)
gp
rr
не станет меньше наперед заданной погрешности
e, или не будет превышено максимальное время вычислений (количество
итераций). В соответствии с этим универсальный оптимизационный алго-
ритм обучения ИНС можно представить в следующем виде (считаем, что
начальное значение
00
t
ww
=
º
rr
известно):
1. Проверка оптимальности текущего значения
t
w
r
, если «ДА», то
«STOP», если «НЕТ», то переход к пункту 2.
2. Определение вектора направления оптимизации
t
p
r
для точки
t
w
.
3. Выбор шага h
t
в направлении
t
p
r
, при котором выполняется усло-
вие
(
)
(
)
1
tt
EwEw
+
<
.
Основным критерием для сравнения эффективности различных ме- тодов обучения ИНС являются вычислительные затраты, то есть количест- во циклов (время) плюс количество операций. 3.2.1. Градиентные методы Согласно теории среди детерминированных методов оптимизации наи- более эффективными считаются градиентные методы, связанные с разложе- � � � нием целевой функции E ( w) в ряд Тейлора в окрестности p решения w � � � � � T � 1� � � E ( w � p ) � E ( w) � � g ( w) � p � pT H ( w) p � O (h3 ), (3.2) 2 T � � � �E �E �E � � где g ( w) � �E � � , ,�, � – вектор градиента, h � p , а симмет- � �w1 �w2 �wn � � ричная квадратная матрица H ( w) производных 2-го порядка � �2E �2E � � �w �w � �w �w � � � 1 1 1 n � H ( w) � � � � � называется гессианом. � 2 � � � E � �2E � � �wn �w1 �wn �wn �� � � Выражение (3.2) можно считать квадратичным приближением E ( w) в � ближайшей окрестности w. Точкой решения wp будем считать точку, где � � � достигается минимум E ( w) с точностью O(h3), то есть g ( wp ) � 0 , а гессиан � H ( w) – положительно определен. � � В процессе нахождения минимума E ( w) направление поиска p и шаг h подбираются таким образом, чтобы для каждой очередной точки � � � � � � w � t � 1� � wt �1 � wt � ηt pt выполнялось условие E � wt �1 � � E � wt � . Поиск про- � � должается, пока g � p � не станет меньше наперед заданной погрешности �, или не будет превышено максимальное время вычислений (количество итераций). В соответствии с этим универсальный оптимизационный алго- ритм обучения ИНС можно представить в следующем виде (считаем, что � � начальное значение wt �0 � w0 известно): � 1. Проверка оптимальности текущего значения wt , если «ДА», то «STOP», если «НЕТ», то переход к пункту 2. � 2. Определение вектора направления оптимизации pt для точки wt . � 3. Выбор шага �t в направлении pt , при котором выполняется усло- вие E � wt �1 � � E � wt � . 27
Страницы
- « первая
- ‹ предыдущая
- …
- 25
- 26
- 27
- 28
- 29
- …
- следующая ›
- последняя »