Нейросетевые модели для систем информационной безопасности. Брюхомицкий Ю.А. - 86 стр.

UptoLike

Составители: 

86
9. Сети встречного распространения
Общие сведения. ИНС встречного распространения (ВР) предложены
известным американским специалистом по ИНС Робертом Хехт-Нильсеном в
1987 г.
ИНС ВР относится к так называемым модульным сетям, в которых
комбинируются различные нейронные парадигмы. В сети ВР Хехт-Нильсен
весьма удачно объединил две известные нейронные парадигмы:
самоорганизующуюся карту Кохонена и выходную звезду Гроссберга.
Получившаяся сеть
приобрела новые свойства, которые отсутствовали у
родительских сетей.
С методической точки зрения рассмотрение ИНС ВР полезно еще и по той
причине, что позволяет познакомится сразу с тремя типами ИНС: картой
Кохонена, выходной звездой Гроссберга и комбинированной сетью на их
основе.
Возможности сетей ВР превосходят возможности однослойных сетей, но
уступают
по общности сетям ОРО. Однако время обучения у них может
уменьшаться в 100 раз по сравнению с ИНС ОРО. Кроме того, сеть ВР обладает
некоторыми собственными интересными и полезными свойствами.
Сеть ВР способна к обобщению. В процессе обучения входные вектора
ассоциируются с соответствующими выходными векторами. Обобщающая
способность сети позволяет получать правильный выход
даже при приложении
входного вектора, который является неполным или искаженным. Это
обстоятельство позволяет применять сети ВР для распознавания образов,
восстановления образов и усиления сигналов.
Структура сети. Упрощенная версия сети ВР показана на рис. 9.1 [16].
Слой 0 вычислений не выполняет. Слой 1 называется слоем Кохонена.
Каждый нейрон слоя 0 соединен с каждым нейроном слоя 1 с весом связи w
mn
.
Совокупность весов w
mn
может рассматриваться как матрица весов W. Слой 2
называется слоем Гроссберга.
Каждый нейрон слоя 1 аналогично соединен с
каждым нейроном слоя 2 с весом связи v
np
. Совокупность весов v
np
также может
рассматриваться как матрица весов
V.
Как и другие сети, сеть ВР функционирует в двух режимах: рабочем
режиме (режим распознавания) и режиме обучения.
Слой 1 функционирует на основе процесса самоорганизации и в
простейшем случае реализует алгоритм «победитель получает все» (Winner
Takes All WTA). Суть этого алгоритма состоит в том, что для данного
входного вектора только один нейрон слоя 1 выдает на
выходе логическую
единицунейрон-победитель»), все остальные нейроны выдают ноль.
Слой 2 обучается с учителем и служит для преобразования полученных в
результате самоорганизации выходных сигналов слоя 1 в желаемую,
обусловленную учителем форму.