Нейросетевые модели для систем информационной безопасности. Брюхомицкий Ю.А. - 72 стр.

UptoLike

Составители: 

72
подмножествами Ψ
1
и Ψ
2
может быть построена разделяющая гиперплоскость,
т.е. Ψ
1
и Ψ
2
линейно разделимы. Цель обучения состоит в том, чтобы выходной
сигнал перцептрона обращался в 1 при предъявлении ему образа 1-го класса
(вектора из Ψ
1
) и обращался в 0 при предъявлении ему образа 2-го класса
(вектора из Ψ
2
).
Процедура обучения состоит в следующем. На входы перцептрона
предъявляется очередной образ Х из обучающего множества Ψ и определяется
выходная реакция, т.е. значение функции
z. Если ответ перцептрона
правильный (т.е. образ отнесен к нужному классу), то ничего не меняется и
предъявляется следующий образ обучающего множества Ψ. Если ответ
неправильный (т.е. образ отнесен к другому классу), то веса, связанные с
компонентами данного входного образа, ответственные за ошибочный
результат, модифицируются, чтобы уменьшить ошибку. Модификация весов
может осуществляться в сторону их увеличения или уменьшения, в зависимости
от знака отклонения реального выходного сигнала
z от правильного
(желаемого).
Вербальное описание алгоритма обучения α-перцептрона [16]:
1
0
. Подать очередной входной образ Х
k
и вычислить z.
2
0
. а) Если ответ z правильный, то перейти к шагу 1
0
;
б) Если ответ z неправильный и равен нулю (образ первого класса
неправильно отнесен ко второму классу), то добавить каждую компоненту
х
j
образа Х
k
к соответствующему ей весу w
j
;
в) Если ответ z неправильный и равен единице (образ второго класса
неправильно отнесен к первому классу), то вычесть каждую компоненту
х
j
образа Х
k
из соответствующего ей веса w
j
.
3
0
. Если обучающее множество Ψ исчерпано, то конец, иначе перейти к
шагу 1
0
.
Исходя из сделанного допущения, что обучающие подмножества Ψ
1
и Ψ
2
линейно разделимы, перцептрон за конечное число шагов (что было доказано
Ф. Розенблаттом) научится правильно классифицировать все
L образов
обучающего множества Ψ.
Дельта-правило для α-перцептрона. Современное математическое
обобщение алгоритма обучения перцептрона носит название
дельта-правила
или правила Видроу-Хоффа (Widrow-Hoff rule). Оно справедливо для любой
формы представления входных и выходных сигналов перцептрона: бинарной,
цифровой или непрерывной.
Для определения величины и знака отклонения реального выходного
сигнала α-перцептрона
z от желаемого правильного (терминального) z
Т
,
определяется их разность
δ =
z
Т
- z,