Нейросетевые модели для систем информационной безопасности. Брюхомицкий Ю.А. - 79 стр.

UptoLike

Составители: 

79
2
0
. Вычислить выходной вектор сети.
3
0
. Вычислить разность между выходным и целевым векторами.
4
0
. Подкорректировать веса сети так, чтобы минимизировать ошибку.
5
0
. Повторять шаги с 1
0
по 4
0
для каждой пары обучающего множества до
тех пор, пока ошибка на всем множестве не достигнет приемлемого уровня.
Вычисления выполняются послойно от входного до выходного слоя. Шаги
1
0
и 2
0
трактуются как «проход вперед». Шаги 3
0
и 4
0
составляют «обратный
проход», во время которого вычисляемый сигнал ошибки распространяется
обратно по сети и используется для подстройки весов.
Число нейронов в каждом слое сети, в общем случае, может быть
различным. Для вывода алгоритма обучения обозначим количество слоев сети
ОРО через σ= 1, 2, …, s и положим, что входной слой содержит r нейронов,
выходной s-слой содержит
nk ,1=
нейронов, последний скрытый, т.е. (s-1)-слой
содержит
mj ,1=
нейронов, а предшествующий ему скрытый, т.е. (s-2)-слой
содержат
li ,1=
нейронов.
Для обучения ИНС ОРО используем обучающее множество Ψ, состоящее
из
Lp ,1=
обучающих пар:
Ψ(Ψ
1
, Ψ
2
, …, Ψ
L
), Ψ
p
= (X
p
,
Z
p
),
Lp ,1=
.
При проходе вперед выходные вектора Z вычисляются последовательно
для всех слоев, начиная с первого (σ=1) и кончая последним (σ=s). Выходной
вектор каждого слоя вычисляется по формуле:
Z
σ
= F(X
σ
·W
σ
).
После получения при проходе вперед выходного вектора сети
осуществляется обратный проход. При этом ставится задача минимизации
целевой функции ошибки, которая находится методом наименьших квадратов.
Для одной обучающей пары целевая функция имеет вид:
=
=
n
k
sk
sk
zzwE
1
2
,T,
,
)(
2
1
)(
,
где
,
,sk
z
sk
z
,T,
реальный и желаемый выходные сигналы k-нейрона в s-слое
при обработке одной обучающей пары.
Для всего обучающего множества Ψ, содержащего
Lp ,1=
обучающих пар
Ψ
p
, целевая функция определяется в виде: