Искусственные нейронные сети. Каширина И.Л. - 27 стр.

UptoLike

Составители: 

27
Рис . 13 Сеть встречного распространения
На рис . 13 показана сеть встречного распространения полностью. В режиме нор -
мального функционирования предъявляются входные векторы Х и Y, и обученная
сеть дает на выходе векторы X и Y, являющиеся аппроксимациями соответст-
венно для Х и Y. Векторы (Х , Y) предполагаются здесь нормированными векто-
рами единичной длины , следовательно, порождаемые на выходе векторы также
должны быть нормированными.
В процессе обучения векторы Х и Y подаются одновременно и как входные век-
торы сети, и как желаемые выходные сигналы. В результате получается отобра -
жение, при котором предъявление пары входных векторов порождает их копии на
выходе. Это не было бы особенно интересным , если не учитывать способность
этой сети к обобщению. Благодаря обобщению, предъявление только вектора Х (с
вектором Y , равным нулю) порождает как выходы X, так и выходы Y. Если F
функция, отображающая Х в Y, то сеть аппроксимирует ее. Также, если F обра -
тима, то предъявление только вектора Y (приравнивая Х нулю) порождает X.
Уникальная способность порождать функцию и обратную к ней делает сеть
встречного распространения полезной в ряде приложений . (Например, в задаче
аппроксимации многомерной векторной функции сеть обучается на известных
значениях этой функции).
Алгоритм обучения сети встречного распространения
Шаг 1. Произвести единичную нормировку всех векторов (
Y
X
,
) обучающего
множества .
11
w
nm
w
11
v
mn
v
Входы
                                       27
                    Входы
                            w11                    v11




                      wnm                           vmn

                     Рис. 13 Сеть встречного распространения

На рис. 13 показана сеть встречного распространения полностью. В режиме нор-
мального функционирования предъявляются входные векторы Х и Y, и обученная
сеть дает на выходе векторы X’ и Y’, являющиеся аппроксимациями соответст-
венно для Х и Y. Векторы (Х , Y) предполагаются здесь нормированными векто-
рами единичной длины, следовательно, порождаемые на выходе векторы также
должны быть нормированными.
В процессе обучения векторы Х и Y подаются одновременно и как входные век-
торы сети, и как желаемые выходные сигналы. В результате получается отобра-
жение, при котором предъявление пары входных векторов порождает их копии на
выходе. Это не было бы особенно интересным, если не учитывать способность
этой сети к обобщению. Благодаря обобщению, предъявление только вектора Х (с
вектором Y, равным нулю) порождает как выходы X’, так и выходы Y’. Если F –
функция, отображающая Х в Y’, то сеть аппроксимирует ее. Также, если F обра-
тима, то предъявление только вектора Y (приравнивая Х нулю) порождает X’.
Уникальная способность порождать функцию и обратную к ней делает сеть
встречного распространения полезной в ряде приложений. (Например, в задаче
аппроксимации многомерной векторной функции сеть обучается на известных
значениях этой функции).
           Алгоритм обучения сети встречного распространения
Шаг 1. Произвести единичную нормировку всех векторов ( X , Y ) обучающего
множества.