Интеллектуальный анализ временных рядов. Ярушкина Н.Г - 115 стр.

UptoLike

115
Рассмотрим алгоритм обратного распространения ошибки ИНС. Для уп-
рощения обозначений ограничимся ситуацией, когда сеть имеет только один
скрытый слой. Матрицу весовых коэффициентов от входов к скрытому слою
обозначим
W
, а матрицу весов, соединяющих скрытый и выходной слой как
V
. Для индексов примем следующие обозначения: входы будем нумеровать
только индексом
i
, элементы скрытого слоя индексом
j
, а выходы, соответ-
ственно, индексом
k
.
Пусть сеть обучается на выборке
paYX
aa
1),,(
. Активности нейро-
нов будем обозначать малыми буквами
y
с соответствующим индексом, а
суммарные взвешенные входы нейронов
малыми буквами
x
.
Алгоритм обратного распространения ошибки ИНС:
Шаг
0. Начальные значения весов всех нейронов всех слоев
)0(
tV
и
)0( tW полагаются случайными числами.
Шаг
1. Сети предъявляется входной образ
a
X , в результате формируется
выходной
образ
a
Yy
1
. При этом нейроны последовательно от слоя
к
слою функционируют по следующим формулам: скрытый слой
)(;
jj
i
a
iijj
xfyXWx
, выходной слой )(;
kk
j
jjkk
xfyyVx
.
Здесь
)(xf
сигмоидальная функция.
Шаг
2. Функционал квадратичной ошибки ИНС для данного входного об-
раза имеет вид:
k
a
kk
YyE
2
)(
2
1
.
Данный функционал подлежит минимизации. Классический гради-
ентный метод оптимизации состоит в итерационном уточнении ар-
гумента согласно формуле:
jk
jkjk
V
E
htVtV
)()1(
.
Функция ошибки в явном виде не содержит зависимости от веса
jk
V ,
поэтому можно использовать формулы неявного дифференцирова-