Нейросетевые модели для систем информационной безопасности. Брюхомицкий Ю.А. - 101 стр.

UptoLike

Составители: 

101
недетерминированных позициях своих выходных сигналов. Для того чтобы
преобразовать полученную случайную картину выходов слоя 1 в желаемую
картину выходных сигналов классификатора, необходим слой 2. Кроме этого,
слой 2 может быть использован для исправления неверно проведенной
классификации кластеров в слое 1: объединения единичных выходных сигналов
слоя 1, соответствующих одному кластеру (см. пример на рис.9.10, б).
Выходной вектор
Z
K
слоя 1 поступает на входы слоя 2, и выходные
сигналы слоя 2 вычисляются точно так же, как и в рабочем режиме:
Y
G
= Z
К
· V;
Z
G
= F(Y
G
) = F(Z
К
·V).
Обучение слоя 2 осуществляется с учителем. Цель обучения
минимизировать ошибку между реально полученным выходным вектором
Z
G
и
желаемым выходным вектором
T
G
Z
.
В слое 1 только один нейрон имеет выходной сигнал, равный 1. При
использовании линейной активационной функции в нейронах слоя 2 с
коэффициентом а=1 это приводит к тому, что каждый нейрон слоя 2 будет
выдавать величину веса v, который связывает этот нейрон с нейроном-
победителем слоя 1:
z
Gj
= (z
Ki
=1)·v
ij
= v
ij
. (9.7)
В слое 2 корректируются не все веса, а только те, которые связаны с
нейроном-победителем слоя 1. Коррекция осуществляется на основе
классического дельта-правила:
KiGj
Gj
ijij
zzzvv η+= )(
T,
сн
, (9.8)
где:
н
ij
v
с
ij
v новое (после коррекции) и старое (до коррекции) значения веса,
соединяющего i-нейрон слоя 1 с j-нейроном слоя 2;
Gj
z
T,
,
Gj
z
желаемое (терминальное) и реальное значение выходного
сигнала j-нейрона слоя 2;
Ki
z выходной сигнал i-нейрона слоя 1 (только для одного нейрона слоя 1
он отличен от нуля);
ηкоэффициент скорости обучения.
Согласно (9.7) формулу коррекции весов слоя 2 можно записать в рабочем
виде
Kiij
Gj
ijij
zvzvv η+= )(
c
T,
сн
. (9.9)