ВУЗ:
Составители:
19
где y
k
–полученное реальное значение k-го выхода нейросети при подаче на нее
одного из входных образов обучающей выборки; d
k
– требуемое (целевое ) значе-
ние k-го выхода для этого образа .
Обучение нейросети производится известным оптимизационным методом
градиентного спуска , т. е. на каждой итерации изменение веса производится по
формулам :
ij
N
ij
N
ij
w
E
ww
∂
∂
−=
+
α
1
,
jk
N
jk
N
jk
v
E
vv
∂
∂
−=
+
α
1
,
где
α
– параметр, определяющий скорость обучения.
В качестве активационной функции в сети обратного распространения обычно
используется логистическая функция
s
e
sf
−
+
=
1
1
)( , где s –взвешенная сумма
входов нейрона . Эта функция удобна для вычислений в градиентном методе, так
как имеет простую производную: ))(1)((
)1(
)('
2
sfsf
e
e
sf
s
s
−=
+
=
−
−
.
Функция ошибки в явном виде не содержит зависимости от весовых коэффициен-
тов V
jk
и
ij
w , поэтому для вычисления производных
jk
v
E
∂
∂
,
ij
w
E
∂
∂
воспользуемся
формулами дифференцирования сложной функции:
jk
k
k
k
kjk
v
s
s
y
y
E
v
E
∂
∂
∂
∂
∂
∂
=
∂
∂
,
где s
k
– взвешенная сумма входных сигналов k - го нейрона выходного слоя . Обо-
значим
c
j
y
- значение выхода j-го нейрона скрытого слоя . Тогда
∑
=
=
m
j
c
jjkk
yvs
1
и
c
j
jk
k
y
v
s
=
∂
∂
. Так как )(
kk
sfy
=
, то )1()(1)((
kkkk
k
k
yysfsf
s
y
−=−=
∂
∂
. Наконец ,
kk
k
dy
y
E
−=
∂
∂
. Таким образом , получили выражение для производной :
c
jkkkk
jk
yyydy
v
E
)1()( −−=
∂
∂
.
Выведем теперь формулу для производной
ij
w
E
∂
∂
. Аналогично запишем :
ij
j
j
c
j
c
j
ij
w
s
s
y
y
E
w
E
∂
∂
∂
∂
∂
∂
=
∂
∂
.
19 где yk –полученное реальное значение k-го выхода нейросети при подаче на нее одного из входных образов обучающей выборки; dk – требуемое (целевое) значе- ние k-го выхода для этого образа. Обучение нейросети производится известным оптимизационным методом градиентного спуска, т. е. на каждой итерации изменение веса производится по формулам: ∂E ∂E wijN +1 =wijN −α , v Njk +1 =v Njk −α , ∂wij ∂v jk где α – параметр, определяющий скорость обучения. В качестве активационной функции в сети обратного распространения обычно 1 используется логистическая функция f ( s ) = , где s –взвешенная сумма 1 +e −s входов нейрона. Эта функция удобна для вычислений в градиентном методе, так e −s как имеет простую производную: f ' ( s) = = f ( s)(1 − f ( s)) . (1 +e −s ) 2 Функция ошибки в явном виде не содержит зависимости от весовых коэффициен- ∂E ∂E тов Vjk и wij , поэтому для вычисления производных , воспользуемся ∂v jk ∂wij формулами дифференцирования сложной функции: ∂E ∂E ∂yk ∂sk = , ∂v jk ∂yk ∂sk ∂v jk где sk – взвешенная сумма входных сигналов k- го нейрона выходного слоя. Обо- m значим y cj - значение выхода j-го нейрона скрытого слоя. Тогда sk =∑ v jk y cj и j =1 ∂sk ∂yk =y cj . Так как yk = f ( sk ) , то = f ( sk )(1 − f ( sk ) =y k (1 −yk ) . Наконец, ∂v jk ∂sk ∂E = y k −d k . Таким образом, получили выражение для производной: ∂y k ∂E =( yk −d k ) y k (1 −yk ) y cj . ∂v jk ∂E Выведем теперь формулу для производной . Аналогично запишем: ∂wij ∂E ∂y j ∂s j c ∂E = . ∂wij ∂y cj ∂s j ∂wij
Страницы
- « первая
- ‹ предыдущая
- …
- 17
- 18
- 19
- 20
- 21
- …
- следующая ›
- последняя »