Нейросетевые технологии. Каширина И.Л. - 30 стр.

UptoLike

Составители: 

30
удачно объединил эти две архитектуры, в результате сеть приобрела свой-
ства, которых не было у каждой их них в отдельности.
Слой Кохонена классифицирует входные векторы в группы схожих.
Это достигается с помощью такой подстройки весов слоя Кохонена, что
близкие входные векторы активируют один и тот же нейрон данного слоя.
Затем задачей
слоя Гроссберга является получение требуемых выходов.
На рис. 14 показана сеть встречного распространения полностью. В режи-
ме нормального функционирования предъявляются входные векторы Х и
Y, и обученная сеть дает на выходе векторы X’ и Y’, являющиеся аппрок-
симациями соответственно для Х и Y. Векторы (Х, Y) предполагаются
здесь нормированными векторами единичной длины, следовательно, по-
рождаемые на
выходе векторы также должны быть нормированными.
В процессе обучения векторы Х и Y подаются одновременно и как
входные векторы сети, и как желаемые выходные сигналы. В результате
получается отображение, при котором предъявление пары входных векто-
ров порождает их копии на выходе. Это не было бы особенно интересным,
если не учитывать способность
этой сети к обобщению. Благодаря обоб-
щению, предъявление только вектора Х (с вектором Y, равным нулю) по-
рождает как выходы X’, так и выходы Y’. Если F – функция, отображаю-
щая Х в Y’, то сеть аппроксимирует ее. Также, если F обратима, то предъ-
явление только вектора Y (приравнивая Х нулю) порождает X’. Уникаль-
ная способность порождать функцию
и обратную к ней делает сеть
встречного распространения полезной в ряде приложений. (Например, в
задаче аппроксимации многомерной векторной функции сеть обучается на
известных значениях этой функции).
Рис. 14. Сеть встречного распространения
11
w
11
v
mn
v
Входы
удачно объединил эти две архитектуры, в результате сеть приобрела свой-
ства, которых не было у каждой их них в отдельности.
      Слой Кохонена классифицирует входные векторы в группы схожих.
Это достигается с помощью такой подстройки весов слоя Кохонена, что
близкие входные векторы активируют один и тот же нейрон данного слоя.
Затем задачей слоя Гроссберга является получение требуемых выходов.
На рис. 14 показана сеть встречного распространения полностью. В режи-
ме нормального функционирования предъявляются входные векторы Х и
Y, и обученная сеть дает на выходе векторы X’ и Y’, являющиеся аппрок-
симациями соответственно для Х и Y. Векторы (Х, Y) предполагаются
здесь нормированными векторами единичной длины, следовательно, по-
рождаемые на выходе векторы также должны быть нормированными.
      В процессе обучения векторы Х и Y подаются одновременно и как
входные векторы сети, и как желаемые выходные сигналы. В результате
получается отображение, при котором предъявление пары входных векто-
ров порождает их копии на выходе. Это не было бы особенно интересным,
если не учитывать способность этой сети к обобщению. Благодаря обоб-
щению, предъявление только вектора Х (с вектором Y, равным нулю) по-
рождает как выходы X’, так и выходы Y’. Если F – функция, отображаю-
щая Х в Y’, то сеть аппроксимирует ее. Также, если F обратима, то предъ-
явление только вектора Y (приравнивая Х нулю) порождает X’. Уникаль-
ная способность порождать функцию и обратную к ней делает сеть
встречного распространения полезной в ряде приложений. (Например, в
задаче аппроксимации многомерной векторной функции сеть обучается на
известных значениях этой функции).
                     Входы
                             w11                v11




                                                v   mn


               Рис. 14. Сеть встречного распространения
                                   30