Нейронные сети и нейроконтроллеры. Бураков М.В. - 57 стр.

UptoLike

Составители: 

57
( )
( )
2
11 1
1
1
1
22
2 2 1
,, ,
,
,
()
() ()
()
() ()
() ()
() () (), , .
jj j
R
jj
j
j
j
ek
zk ak
ek
ek ek
ww w
zk w p k b
ek ek p k j R
w
=
¶-
== =
¶¶
æö
æö
÷
ç÷
ç
÷
÷
ç
ç
÷
÷
¶- +
ç
ç
÷
÷
ç
ç
÷
÷
ç
÷
ç
÷
ç
èø
èø
= =- =
å
Следовательно,
( )
11 1
12
2 1
,, ,
( ) () () ()
() () () (), , ,
jj j j
jj
w wk wk ekpk
ek p k ek p k j R
∆α
αη
= + - =- - =
== =
11
1 1
,,
( ) () () (), , .
jj j
wk wk ekpk j Rη+= + =
Аналогично можно получить
1 1( ) () (), , ,
jj
bk bk ek j Rη+= + =
где η – константа скорости обучения.
Таким образом, вес и смещение изменяются в направлении ан-
тиградиента пропорционально значению ошибки.
Для линейной НС из множества нейронов обучающие правила
обобщаются:
ò
1( ) () () (),Wk Wk EkP kη+= +
1( ) () ().Bk Bk Ekη+= +
В целом алгоритм обучения предполагает следующие шаги:
1. Выбирается первая пара из обучающего множества {P
1
, Z
1
}
(или случайная пара).
2. Вычисляется ошибка выхода сети.
3. Корректируются веса и смещения сети.
4. Проверяются критерии остановки. Если они не выполняются,
то выбирается следующая пара и повторяются шаги 2 и 3.
В качестве критериев окончания процесса обучения может быть
выбран порог ошибки e
2
min
(по всему обучающему множеству), или
достижение максимального числа итераций.
Рассмотрим пример. Пусть задано обучающее множество (N = 2):
{p
1
= [–1 1 –1]
т
, t
1
= [–1]}, {p
2
= [1 1 –1]
т
, t
1
= [1]}.