ВУЗ:
Составители:
30
удачно объединил эти две архитектуры, в результате сеть приобрела свой-
ства, которых не было у каждой их них в отдельности.
Слой Кохонена классифицирует входные векторы в группы схожих.
Это достигается с помощью такой подстройки весов слоя Кохонена, что
близкие входные векторы активируют один и тот же нейрон данного слоя.
Затем задачей
слоя Гроссберга является получение требуемых выходов.
На рис. 14 показана сеть встречного распространения полностью. В режи-
ме нормального функционирования предъявляются входные векторы Х и
Y, и обученная сеть дает на выходе векторы X’ и Y’, являющиеся аппрок-
симациями соответственно для Х и Y. Векторы (Х, Y) предполагаются
здесь нормированными векторами единичной длины, следовательно, по-
рождаемые на
выходе векторы также должны быть нормированными.
В процессе обучения векторы Х и Y подаются одновременно и как
входные векторы сети, и как желаемые выходные сигналы. В результате
получается отображение, при котором предъявление пары входных векто-
ров порождает их копии на выходе. Это не было бы особенно интересным,
если не учитывать способность
этой сети к обобщению. Благодаря обоб-
щению, предъявление только вектора Х (с вектором Y, равным нулю) по-
рождает как выходы X’, так и выходы Y’. Если F – функция, отображаю-
щая Х в Y’, то сеть аппроксимирует ее. Также, если F обратима, то предъ-
явление только вектора Y (приравнивая Х нулю) порождает X’. Уникаль-
ная способность порождать функцию
и обратную к ней делает сеть
встречного распространения полезной в ряде приложений. (Например, в
задаче аппроксимации многомерной векторной функции сеть обучается на
известных значениях этой функции).
Рис. 14. Сеть встречного распространения
11
w
11
v
mn
v
Входы
удачно объединил эти две архитектуры, в результате сеть приобрела свой-
ства, которых не было у каждой их них в отдельности.
Слой Кохонена классифицирует входные векторы в группы схожих.
Это достигается с помощью такой подстройки весов слоя Кохонена, что
близкие входные векторы активируют один и тот же нейрон данного слоя.
Затем задачей слоя Гроссберга является получение требуемых выходов.
На рис. 14 показана сеть встречного распространения полностью. В режи-
ме нормального функционирования предъявляются входные векторы Х и
Y, и обученная сеть дает на выходе векторы X и Y, являющиеся аппрок-
симациями соответственно для Х и Y. Векторы (Х, Y) предполагаются
здесь нормированными векторами единичной длины, следовательно, по-
рождаемые на выходе векторы также должны быть нормированными.
В процессе обучения векторы Х и Y подаются одновременно и как
входные векторы сети, и как желаемые выходные сигналы. В результате
получается отображение, при котором предъявление пары входных векто-
ров порождает их копии на выходе. Это не было бы особенно интересным,
если не учитывать способность этой сети к обобщению. Благодаря обоб-
щению, предъявление только вектора Х (с вектором Y, равным нулю) по-
рождает как выходы X, так и выходы Y. Если F функция, отображаю-
щая Х в Y, то сеть аппроксимирует ее. Также, если F обратима, то предъ-
явление только вектора Y (приравнивая Х нулю) порождает X. Уникаль-
ная способность порождать функцию и обратную к ней делает сеть
встречного распространения полезной в ряде приложений. (Например, в
задаче аппроксимации многомерной векторной функции сеть обучается на
известных значениях этой функции).
Входы
w11 v11
v mn
Рис. 14. Сеть встречного распространения
30
Страницы
- « первая
- ‹ предыдущая
- …
- 28
- 29
- 30
- 31
- 32
- …
- следующая ›
- последняя »
