Нейросетевые модели для систем информационной безопасности. Брюхомицкий Ю.А. - 125 стр.

UptoLike

Составители: 

125
12. Двунаправленная ассоциативная память
Общие сведения. Память человека демонстрирует широкие
ассоциативные возможности. Если наше сознание фокусируется на каком-либо
образе, то он может вызвать целую гамму различных ассоциаций. В памяти
всплывают множество других образов, связанных с первым, которые, в свою
очередь, напоминают о чем-то третьем и т.д. Создаются многочисленные
разветвленные цепочки умственных
ассоциаций. Кроме того, такие ассоциации
позволяют восстанавливать забытые образы. Распространенный пример: Вы
что-то делали в комнате, и Вам для продолжения работы понадобился
определенный предмет, за которым Вы пошли в другую комнату. Но по пути
Вас что-то отвлекло и, придя в другую комнату, Вы совершенно забыли, зачем
сюда пришли.
Для того чтобы восстановить «утраченный» образ необходимо
мысленно отследить всю возникшую цепочку ассоциаций, дойдя в итоге, до
причины, вызвавшей необходимость посещения другой комнаты.
Рассмотренная выше классическая сеть Хопфилда моделирует, строго
говоря, лишь
автоассоциативную память. В ответ на предъявленный
искаженный или неполный образ, сеть по ассоциации восстанавливает этот же
образ, запомненный в ней ранее в качестве образца. Такая сеть не может
ассоциировать один образ с другим, поскольку имеет лишь одноуровневую
ассоциативную структуру, когда выходной образ формируется в тех же
нейронах, на которые поступил входной
образ.
Используя идею Хопфилда, в 1987 г. Б. Коско предложил построить
двухзвенную ассоциативную память, которая сохраняет пары образцов и может
восстановить один образец, когда ассоциированный с ним другой образец
предлагается ей в качестве подсказки. Как и в сети Хопфилда, сеть способна
выдавать правильные реакции на зашумленные входные образы. Нейронная
сеть с такими
свойствами является гетероассоциативной, а в литературе по
ИНС называется двунаправленной ассоциативной памятью (ДАП) (Bidirectional
Associative Memory – BAM).
Структура сети. На рис. 12.1 приведена базовая конфигурация ДАП [19].
В общем случае размерности слоя 1 и 2 могут быть различными. Входной
вектор А = (
a
1
, a
2
, …, a
m
) обрабатывается матрицей весов W сети, в результате
чего вырабатывается выходной вектор В = (
b
1
, b
2
, …, b
n
). Вектор В затем
обрабатывается транспонированной матрицей
т
W весов сети, которая
вырабатывает новые выходные сигналы, представляющие собой новый входной
вектор А. Этот процесс повторяется до тех пор, пока сеть не достигнет
стабильного состояния, в котором ни вектор А, ни вектор В не изменяются.
Нейроны в слоях 1 и 2 функционируют, как и в других сетях, вычисляя
сумму взвешенных входных сигналов
и по ней значение функции активации
F. Этот процесс может быть выражен следующим образом: