ВУЗ:
Составители:
20
Здесь
∑
=
=
n
i
iijj
xws
1
, поэтому
i
ij
j
x
w
s
=
∂
∂
(
−
i
x i-тая компонента поданного на вход
образа обучающей выборки); )1(
c
j
c
j
j
c
j
yy
s
y
−=
∂
∂
. Так как функция ошибки не зави-
сит в явном виде от выходов скрытого слоя
c
j
y , то производная
c
j
y
E
∂
∂
усложняет-
ся:
c
j
k
k
k
p
k
k
c
j
y
s
s
y
y
E
y
E
∂
∂
∂
∂
∂
∂
=
∂
∂
∑
=1
. Воспользовавшись имеющимися выражениями для
k
y
E
∂
∂
,
k
k
s
y
∂
∂
и
k
s , запишем :
∑
=
−−=
∂
∂
p
k
jkkkkk
c
j
vyydy
y
E
1
)1()( . Если ввести обозначение
k
k
k
k
s
y
y
E
∂
∂
∂
∂
=δ
= )1()(
kkkk
yydy
−
−
,
получим следующие выражения для производных:
c
jk
jk
y
v
E
δ=
∂
∂
,
i
c
j
c
j
p
k
jkk
ij
xyyv
w
E
)1()(
1
−=
∂
∂
∑
=
δ
Алгоритм обучения сети обратного распространения
Рассмотрим теперь полный алгоритм обучения нейросети.
Шаг 1. Инициализация сети.
Весовым коэффициентам присваиваются малые случайные значения, например,
из диапазона (-0.3, 0.3); задаются
ε
-параметр точности обучения,
α
– параметр
скорости обучения (как правило
1
.
0
≈
и может еще уменьшаться в процессе обу-
чения), N
max
- максимально допустимое число итераций .
Шаг 2. Вычисление текущего выходного сигнала .
На вход сети подается один из образов обучающей выборки и определяются зна -
чения выходов всех нейронов нейросети.
Шаг 3. Настройка синаптических весов .
Рассчитать изменение весов для выходного слоя нейронной сети по формулам
jk
N
jk
N
jk
v
E
vv
∂
∂
−=
+
α
1
, где
c
jk
jk
y
v
E
δ=
∂
∂
,
)1()(
kkkkk
yydy
−
−
=
δ
.
Рассчитать изменение весов для скрытого слоя по формулам
ij
N
ij
N
ij
w
E
ww
∂
∂
−=
+
α
1
, где
i
c
j
c
j
p
k
N
jkk
ij
xyyv
w
E
)1()(
1
1
−=
∂
∂
∑
=
+
δ
Шаг 4. Шаги 2-3 повторяются для всех обучающих векторов . Обучение заверша-
ется по достижении для каждого из обучающих образов значения функции ошиб-
ки, не превосходящего
ε
или после максимально допустимого числа итераций .
20 n ∂s j Здесь s j =∑ wij xi , поэтому =xi ( xi −i-тая компонента поданного на вход i =1 ∂wij ∂y cj образа обучающей выборки); =y cj (1 −y cj ) . Так как функция ошибки не зави- ∂s j ∂E сит в явном виде от выходов скрытого слоя y cj , то производная усложняет- ∂y cj ∂E p ∂E ∂yk ∂sk ся: =∑ ∂y j k =1 ∂yk ∂sk ∂y cj c . Воспользовавшись имеющимися выражениями для ∂E ∂yk ∂E p , и sk , запишем: c =∑ ( yk −d k ) y k (1 −yk )v jk . Если ввести обозначение ∂y k ∂sk ∂y j k =1 ∂E ∂yk δk = = ( yk −d k ) y k (1 −yk ) , ∂yk ∂sk получим следующие выражения для производных: ∂E ∂E p =δk y cj , =( ∑ δk v jk ) y cj (1 −y cj ) xi ∂v jk ∂wij k =1 Алгоритм обучения сети обратного распространения Рассмотрим теперь полный алгоритм обучения нейросети. Шаг 1. Инициализация сети. Весовым коэффициентам присваиваются малые случайные значения, например, из диапазона (-0.3, 0.3); задаются ε -параметр точности обучения, α – параметр скорости обучения (как правило ≈0.1 и может еще уменьшаться в процессе обу- чения), Nmax - максимально допустимое число итераций. Шаг 2. Вычисление текущего выходного сигнала. На вход сети подается один из образов обучающей выборки и определяются зна- чения выходов всех нейронов нейросети. Шаг 3. Настройка синаптических весов. Рассчитать изменение весов для выходного слоя нейронной сети по формулам ∂E ∂E v Njk +1 =v Njk −α , где =δk y cj , δ k=( yk −d k ) y k (1 −yk ) . ∂v jk ∂v jk Рассчитать изменение весов для скрытого слоя по формулам N +1 ∂E ∂E p wij =wij −α N , где =( ∑ δk v Njk +1 ) y cj (1 −y cj ) xi ∂wij ∂wij k =1 Шаг 4. Шаги 2-3 повторяются для всех обучающих векторов. Обучение заверша- ется по достижении для каждого из обучающих образов значения функции ошиб- ки, не превосходящего ε или после максимально допустимого числа итераций.
Страницы
- « первая
- ‹ предыдущая
- …
- 18
- 19
- 20
- 21
- 22
- …
- следующая ›
- последняя »