Искусственные нейронные сети. Каширина И.Л. - 26 стр.

UptoLike

Составители: 

26
В процессе обучения веса корректируются следующим образом :
)(
1 N
iiN
N
i
N
i
wxww +=
+
α ,
где w
i
весовой коэффициент входа х
i
; α нормирующий коэффициент обучения,
который имеет начальное значение 0.1 и постепенно уменьшается в процессе обу-
чения.
После завершения обучения предъявление входного вектора Х будет акти-
визировать обученный входной нейрон . Хорошо обученная входная звезда будет
реагировать не только на определенный запомненный вектор , но также и на не -
значительные изменения этого вектора . Это достигается постепенной настройкой
нейронных весов при предъявлении в процессе обучения векторов , представляю-
щих нормированные вариации входного вектора . Веса настраиваются таким обра -
зом , чтобы усреднить величины обучающих векторов , и нейроны получают спо-
собность реагировать на любой вектор этого класса.
Обучение выходной звезды
В то время как входная звезда учится реагировать на определенный вход ,
выходная звезда обучается выдавать требуемый целевой выход .
Для того чтобы обучить нейрон выходной звезды, его веса настраиваются в
соответствии с требуемым целевым выходным вектором Y . Формула коррекции
весов имеет вид:
)(
1 N
iiN
N
i
N
i
wyww +=
+
β ,
где β представляет собой нормирующий коэффициент обучения, который в нача-
ле приблизительно равен единице и постепенно уменьшается до нуля в процессе
обучения.
Как и в случае входной звезды, веса выходной звезды постепенно настраи-
ваются на множестве векторов , представляющих собой возможные вариации за -
поминаемого выходного вектора .
5.3. Двухслойная сеть встречного распространения
Сеть встречного распространения состоит из двух слоев: слоя нейронов Кохонена
и слоя нейронов Гроссберга . Автор сети Р. Хехт - Нильсен удачно объединил эти
две архитектуры, в результате сеть приобрела свойства , которых не было у каж-
дой их них в отдельности.
Слой Кохонена классифицирует входные векторы в группы схожих. Это достига -
ется с помощью такой подстройки весов слоя Кохонена , что близкие входные век-
торы активируют один и тот же нейрон данного слоя . Затем задачей слоя Гросс-
берга является получение требуемых выходов .
                                     26
В процессе обучения веса корректируются следующим образом:
                           wiN +1 =wiN +α N ( xi −wiN ) ,
где wi – весовой коэффициент входа хi; α – нормирующий коэффициент обучения,
который имеет начальное значение 0.1 и постепенно уменьшается в процессе обу-
чения.
      После завершения обучения предъявление входного вектора Х будет акти-
визировать обученный входной нейрон. Хорошо обученная входная звезда будет
реагировать не только на определенный запомненный вектор, но также и на не-
значительные изменения этого вектора. Это достигается постепенной настройкой
нейронных весов при предъявлении в процессе обучения векторов, представляю-
щих нормированные вариации входного вектора. Веса настраиваются таким обра-
зом, чтобы усреднить величины обучающих векторов, и нейроны получают спо-
собность реагировать на любой вектор этого класса.

                          Обучение выходной звезды

      В то время как входная звезда учится реагировать на определенный вход,
выходная звезда обучается выдавать требуемый целевой выход.
      Для того чтобы обучить нейрон выходной звезды, его веса настраиваются в
соответствии с требуемым целевым выходным вектором Y. Формула коррекции
весов имеет вид:
                            wiN +1 =wiN +βN ( yi −wiN ) ,
где β представляет собой нормирующий коэффициент обучения, который в нача-
ле приблизительно равен единице и постепенно уменьшается до нуля в процессе
обучения.
      Как и в случае входной звезды, веса выходной звезды постепенно настраи-
ваются на множестве векторов, представляющих собой возможные вариации за-
поминаемого выходного вектора.

         5.3. Двухслойная сеть встречного распространения

Сеть встречного распространения состоит из двух слоев: слоя нейронов Кохонена
и слоя нейронов Гроссберга. Автор сети Р. Хехт-Нильсен удачно объединил эти
две архитектуры, в результате сеть приобрела свойства, которых не было у каж-
дой их них в отдельности.
 Слой Кохонена классифицирует входные векторы в группы схожих. Это достига-
ется с помощью такой подстройки весов слоя Кохонена, что близкие входные век-
торы активируют один и тот же нейрон данного слоя. Затем задачей слоя Гросс-
берга является получение требуемых выходов.