ВУЗ:
Составители:
30
удачно объединил эти две архитектуры, в результате сеть приобрела свой-
ства, которых не было у каждой их них в отдельности.
Слой Кохонена классифицирует входные векторы в группы схожих.
Это достигается с помощью такой подстройки весов слоя Кохонена, что
близкие входные векторы активируют один и тот же нейрон данного слоя.
Затем задачей
слоя Гроссберга является получение требуемых выходов.
На рис. 14 показана сеть встречного распространения полностью. В режи-
ме нормального функционирования предъявляются входные векторы Х и
Y, и обученная сеть дает на выходе векторы X’ и Y’, являющиеся аппрок-
симациями соответственно для Х и Y. Векторы (Х, Y) предполагаются
здесь нормированными векторами единичной длины, следовательно, по-
рождаемые на
выходе векторы также должны быть нормированными.
В процессе обучения векторы Х и Y подаются одновременно и как
входные векторы сети, и как желаемые выходные сигналы. В результате
получается отображение, при котором предъявление пары входных векто-
ров порождает их копии на выходе. Это не было бы особенно интересным,
если не учитывать способность
этой сети к обобщению. Благодаря обоб-
щению, предъявление только вектора Х (с вектором Y, равным нулю) по-
рождает как выходы X’, так и выходы Y’. Если F – функция, отображаю-
щая Х в Y’, то сеть аппроксимирует ее. Также, если F обратима, то предъ-
явление только вектора Y (приравнивая Х нулю) порождает X’. Уникаль-
ная способность порождать функцию
и обратную к ней делает сеть
встречного распространения полезной в ряде приложений. (Например, в
задаче аппроксимации многомерной векторной функции сеть обучается на
известных значениях этой функции).
Рис. 14. Сеть встречного распространения
11
w
11
v
mn
v
Входы
удачно объединил эти две архитектуры, в результате сеть приобрела свой- ства, которых не было у каждой их них в отдельности. Слой Кохонена классифицирует входные векторы в группы схожих. Это достигается с помощью такой подстройки весов слоя Кохонена, что близкие входные векторы активируют один и тот же нейрон данного слоя. Затем задачей слоя Гроссберга является получение требуемых выходов. На рис. 14 показана сеть встречного распространения полностью. В режи- ме нормального функционирования предъявляются входные векторы Х и Y, и обученная сеть дает на выходе векторы X и Y, являющиеся аппрок- симациями соответственно для Х и Y. Векторы (Х, Y) предполагаются здесь нормированными векторами единичной длины, следовательно, по- рождаемые на выходе векторы также должны быть нормированными. В процессе обучения векторы Х и Y подаются одновременно и как входные векторы сети, и как желаемые выходные сигналы. В результате получается отображение, при котором предъявление пары входных векто- ров порождает их копии на выходе. Это не было бы особенно интересным, если не учитывать способность этой сети к обобщению. Благодаря обоб- щению, предъявление только вектора Х (с вектором Y, равным нулю) по- рождает как выходы X, так и выходы Y. Если F функция, отображаю- щая Х в Y, то сеть аппроксимирует ее. Также, если F обратима, то предъ- явление только вектора Y (приравнивая Х нулю) порождает X. Уникаль- ная способность порождать функцию и обратную к ней делает сеть встречного распространения полезной в ряде приложений. (Например, в задаче аппроксимации многомерной векторной функции сеть обучается на известных значениях этой функции). Входы w11 v11 v mn Рис. 14. Сеть встречного распространения 30
Страницы
- « первая
- ‹ предыдущая
- …
- 28
- 29
- 30
- 31
- 32
- …
- следующая ›
- последняя »