Нейросетевые модели для систем информационной безопасности. Брюхомицкий Ю.А. - 128 стр.

UptoLike

Составители: 

128
ДАП функционирует в направлении минимизации функции энергии
Ляпунова подобно сети Хопфилда. Каждый цикл модифицирует систему в
направлении энергетического минимума, расположение которого определяется
значениями весов. Каждой промежуточной точке процесса соответствует
энергетическая функция
т
kkk
E BWA =
.
Б. Коско доказал, что каждое очередное изменение состояния переходного
процесса ведет к уменьшению значения энергетической функции вплоть до
достижения локального минимума. Этот минимум достигается за конечное
число итераций, принимая значение
т
min
FF
E BWA =
.
Состояние нейронов ДАП можно трактовать как кратковременную память,
так как оно может быстро изменяться при появлении другого входного вектора.
Значения коэффициентов весовых матриц, напротив, образуют долговременную
память, поскольку могут изменяться только на более длительном отрезке
времени, связанном со сменой запоминаемых образцов (кодирование
ассоциаций).
Кодирование ассоциаций. Как и сеть Хопфилда,
ДАП способна к
запоминанию множества образов (образцов). Обучение производится с
использованием обучающего набора, состоящего из
L пар векторов A и B.
Процесс обучения реализуется в форме вычислений. Это означает, что весовая
матрица формируется как сумма произведений всех векторных пар обучающего
набора:
i
L
i
i
BAW =
т
, (12.7)
где
Lчисло обучающих пар.
Пусть, в качестве примера, в сети необходимо запомнить три пары образов
(
L=3) [19]. Для простоты положим, что все образы представляют собой
двоичные векторы с биполярным кодированием (12.5), причем векторы A
i
и В
i
имеют одинаковую размерность, равную трем битам (в общем случае это не
обязательно).
Исходные данные примера приведены в табл. 12.1.