Нейросетевые модели для систем информационной безопасности. Брюхомицкий Ю.А. - 75 стр.

UptoLike

Составители: 

75
jj
x
δ
η
=
Δ
,
но с противоположными знаками:
,
;
сн
сн
jjljl
jjkjk
ww
ww
Δ+=
Δ=
где
н
jk
w
,
с
jk
w
новое и старое значения j-весовой компоненты w
j
в k-
нейронном ансамбле, соответствующем правильной
классификации;
н
jl
w
,
с
jl
w
новое и старое значения j-весовой компоненты w
j
в l-
нейронном ансамбле, соответствующем фактической
классификации.
Очевидно, что в случае правильной реакции перцептрона Δ
j
= 0 и
коррекция производиться не будет.
Для нашего примера δ<0, следовательно, веса в
k-нейронном ансамбле
увеличатся на величину Δ
j
, а в l-нейронном ансамбле уменьшатся на ту же
величину Δ
j
.
В итоге, математическая запись алгоритма обучения перцептрона (дельта-
правило) для
m классов будет иметь вид
1
0
. δ = z
k
– z
l
,
2
0
.
jj
x
δ
η
=
Δ
,
..4
,.3
сн0
сн0
jjljl
jjkjk
ww
ww
Δ+=
Δ=
Исходя из сделанного допущения, что обучающие подмножества Ψ
1
, Ψ
2
,
…, Ψ
m
линейно разделимы, перцептрон за конечное число шагов научится
правильно классифицировать на
m классов все L образов обучающего
множества Ψ. Заметим, что при
m=2 модифицированное дельта-правило
совпадает с описанным ранее для α-перцептрона.
При обучении перцептронов образы из обучающего множества Ψ могут
поступать в любом порядке. Важно, чтобы каждый образ предъявлялся
несколько раз. Образы можно предъявлять либо циклически, либо в случайном
порядке до тех пор, пока несколько раз не повторится предъявление каждого из
них. При циклическом предъявлении, каждая совокупность однократных
предъявлений всех образов называется
итерацией.
Начальные значения весовых коэффициентов могут быть любыми. На