ВУЗ:
Составители:
102
Полная сеть встречного распространения. Рассмотренная выше сеть ВР
является упрощенной версией сети прямого действия. Полная двунаправленная
сеть ВР показана на рис. 9.11 [16].
В рабочем режиме сети предъявляются нормализованные единичные
входные векторы
X и Y, а на выходе сети формируются ответы в виде векторов
X’ и Y’, являющихся аппроксимациями векторов X и Y.
В режиме обучения на сеть подаются одновременно векторы
X и Y,
которые выполняют двоякую роль: с одной стороны это входные векторы, с
другой – векторы желаемой выходной реакции сети. При этом слой 1
воспринимает входные сигналы
X и Y, как если бы это был один большой
вектор, составленный из
X и Y. Вектор X используется для обучения выходов
X’, вектор Y – для обучения выходов Y’. Сеть обучается по описанной выше
схеме. При этом в слое 1 вначале обучаются веса всех нейронов в окрестности
нейрона-победителя с постепенным сужением радиуса обучения до одного
нейрона-победителя. Темпы обучения для слоев 1 и 2 должны быть
согласованными.
Рис. 9.11. Полная двунаправленная сеть встречного распространения
Интересным в этой сети является то, что предъявление ей только вектора X
(с вектором
Y, равным 0) порождает как выходы X’, так и выходы Y’. Т.е. сеть
аппроксимирует некоторую функцию F, отображающую
X в Y’. Если функция
F обратима, то предъявление сети только вектора
Y порождает и выходы X’.
,
2
x
,
1
x
,
n
y
,
2
y
,
1
y
,
n
x
y
2
y
1
y
n
x
n
x
2
x
1
Входной
слой
.
.
.
Слой 1
Кохонена
Слой 2
Гроссберга
.
.
.
.
.
.
.
.
.
.
.
.
X
Y
X’
Y’
.
.
.
.
.
.
.
.
.
.
.
.
Страницы
- « первая
- ‹ предыдущая
- …
- 100
- 101
- 102
- 103
- 104
- …
- следующая ›
- последняя »
