Нейросетевые модели для систем информационной безопасности. Брюхомицкий Ю.А. - 73 стр.

UptoLike

Составители: 

73
которая является исходной величиной для последующей процедуры коррекции
весов. Действительно, случай δ=0 соответствует шагу 2
0
а алгоритма, случай
δ>0 – шагу 2
0
б, а случай δ<0 – шагу 2
0
в.
Не меняя сути вербального описания алгоритма, величину коррекции веса
можно представить в виде [16]
jj
x
δ
η
=
Δ
, (7.3)
где Δ
j
величина коррекции каждой компоненты w
j
весовой матрицы W;
х
j
j-я компонента входного образа Х
k
;
ηкоэффициент скорости обучения.
Таким образом, величина коррекции Δ
j
каждой компоненты w
j
весовой
матрицы W определяется знаком и величиной отклонения δ реального
выходного сигнала перцептрона
z от желаемого правильного z
Т
, величиной
самой компоненты
х
j
входного образа Х
k
и коэффициентом скорости обучения
η, который задает среднюю величину шага изменения весов (темп обучения).
Полученная величина коррекции каждой весовой компоненты позволяет
определить скорректированную величину самой весовой компоненты:
jjj
ww Δ+=
сн
,
где
н
j
w
новое значение весовой компоненты w
j
(после коррекции);
с
j
w
старое значение весовой компоненты w
j
(до коррекции).
В итоге, математическая запись алгоритма обучения α-перцептрона
(дельта-правило) будет иметь вид
1
0
. δ = z
Т
- z;
2
0
.
jj
x
δ
η
=
Δ
;
3
0
.
jjj
ww Δ+=
сн
.
Дельта-правило для перцептрона при числе классов больше двух. При
решении перцептронной задачи распознавания образов
m классов (m>2), (см.
рис. 7.8) используется модифицированное дельта-правило.
Допустим для обучения перцептрона используется обучающее множество
Ψ, состоящее из
L образов (векторов) m классов:
Ψ = (X
1
, X
2
, …, X
L
).
Множество Ψ теперь состоит из m подмножеств Ψ
1
, Ψ
2
, …, Ψ
m
,
соответствующих обучающим выборкам образов каждого из
m классов. Будем