ВУЗ:
Составители:
20
При обучении нейронной сети ставится задача минимизации целе-
вой
функции ошибки, которая находится по методу наименьших квадратов:
∑
=
−=
p
k
kk
dyVWE
1
2
)(
2
1
),( ,
где
y
k
– полученное реальное значение k-го выхода нейросети при подаче
на нее одного из входных образов обучающей выборки;
d
k
– требуемое (це-
левое) значение
k-го выхода для этого образа.
Обучение нейросети производится известным оптимизационным ме-
тодом градиентного спуска, т. е. на каждой итерации изменение веса про-
изводится по формулам:
ij
N
ij
N
ij
w
E
ww
∂
∂
−=
+
α
1
,
jk
N
jk
N
jk
v
E
vv
∂
∂
−=
+
α
1
,
где
α
– параметр, определяющий скорость обучения.
В качестве активационной функции в сети обратного распростране-
ния обычно используется логистическая функция
s
e
sf
−
+
=
1
1
)(, где
s –
взвешенная сумма входов нейрона. Эта функция удобна для вычислений в
градиентном методе, так как имеет простую производную:
))(1)((
)1(
)('
2
sfsf
e
e
sf
s
s
−=
+
=
−
−
.
Функция ошибки в явном виде не содержит зависимости от весовых
коэффициентов
V
jk
и
ij
w , поэтому для вычисления производных
jk
v
E
∂
∂
,
ij
w
E
∂
∂
воспользуемся формулами дифференцирования сложной функции:
Рис. 11. Ней
р
онная сеть об
р
атного
р
асп
р
ост
р
анения
Рис. 11. Нейронная сеть обратного распространения
При обучении нейронной сети ставится задача минимизации целе-
вой функции ошибки, которая находится по методу наименьших квадратов:
1 p
E (W ,V ) = ∑ ( yk − d k ) 2 ,
2 k =1
где yk полученное реальное значение k-го выхода нейросети при подаче
на нее одного из входных образов обучающей выборки; dk требуемое (це-
левое) значение k-го выхода для этого образа.
Обучение нейросети производится известным оптимизационным ме-
тодом градиентного спуска, т. е. на каждой итерации изменение веса про-
изводится по формулам:
∂E ∂E
wijN +1 = wijN − α , v Njk +1 = v Njk − α ,
∂wij ∂v jk
где α параметр, определяющий скорость обучения.
В качестве активационной функции в сети обратного распростране-
1
ния обычно используется логистическая функция f ( s ) = , где s
1 + e− s
взвешенная сумма входов нейрона. Эта функция удобна для вычислений в
градиентном методе, так как имеет простую производную:
e− s
f ' (s) = = f ( s )(1 − f ( s )) .
(1 + e − s ) 2
Функция ошибки в явном виде не содержит зависимости от весовых
∂E ∂E
коэффициентов Vjk и wij , поэтому для вычисления производных ,
∂v jk ∂wij
воспользуемся формулами дифференцирования сложной функции:
20
Страницы
- « первая
- ‹ предыдущая
- …
- 18
- 19
- 20
- 21
- 22
- …
- следующая ›
- последняя »
