Нейросетевые технологии. Каширина И.Л. - 29 стр.

UptoLike

Составители: 

29
соответствовали входному вектору. Входная звезда имеет тождественную
активационную функцию:
s
s
f
=
)(, то есть выход входной звезды опреде-
ляется как взвешенная сумма ее входов:
=
=
n
i
ii
xwY
1
. С другой точки зре-
ния, выход можно рассматривать как скалярное произведение входного
вектора с весовым вектором. Если эти векторы имеют единичную норму,
то скалярное произведение будет максимальным для того входного об-
раза, которому нейрон был обучен.
В процессе обучения веса корректируются следующим образом:
)(
1 N
iiN
N
i
N
i
wxww +=
+
α
,
где w
i
весовой коэффициент входа х
i
; αнормирующий коэффициент
обучения, который имеет начальное значение 0.1 и постепенно уменьшает-
ся в процессе обучения.
После завершения обучения предъявление входного вектора
Х будет
активизировать обученный входной нейрон. Хорошо обученная входная
звезда будет реагировать не только на определенный запомненный вектор,
но также и на незначительные изменения этого вектора. Это достигается
постепенной настройкой нейронных весов при предъявлении в процессе
обучения векторов, представляющих нормированные вариации входного
вектора. Веса настраиваются таким образом, чтобы усреднить величины
обучающих
векторов, и нейроны получают способность реагировать на
любой вектор этого класса.
Обучение выходной звезды
В то время как входная звезда учится реагировать на определенный
вход, выходная звезда обучается выдавать требуемый целевой выход.
Для того чтобы обучить нейрон выходной звезды, его веса настраи-
ваются в соответствии с требуемым целевым выходным вектором Y. Фор-
мула коррекции весов имеет вид:
)(
1 N
iiN
N
i
N
i
wyww +=
+
β
,
где β представляет собой нормирующий коэффициент обучения, который в
начале приблизительно равен единице и постепенно уменьшается до нуля
в процессе обучения.
Как и в случае входной звезды, веса выходной звезды постепенно
настраиваются на множестве векторов, представляющих собой возможные
вариации запоминаемого выходного вектора.
5.3. Двухслойная сеть встречного распространения
Сеть встречного распространения состоит из двух слоев: слоя нейро-
нов Кохонена и слоя нейронов Гроссберга. Автор сети Р. Хехт-Нильсен
соответствовали входному вектору. Входная звезда имеет тождественную
активационную функцию: f ( s ) = s , то есть выход входной звезды опреде-
                                              n
ляется как взвешенная сумма ее входов: Y = ∑ wi xi . С другой точки зре-
                                             i =1
ния, выход можно рассматривать как скалярное произведение входного
вектора с весовым вектором. Если эти векторы имеют единичную норму,
то скалярное произведение будет максимальным для того входного об-
раза, которому нейрон был обучен.
      В процессе обучения веса корректируются следующим образом:
                         wiN +1 = wiN + α N ( xi − wiN ) ,
где wi – весовой коэффициент входа хi; α – нормирующий коэффициент
обучения, который имеет начальное значение 0.1 и постепенно уменьшает-
ся в процессе обучения.
       После завершения обучения предъявление входного вектора Х будет
активизировать обученный входной нейрон. Хорошо обученная входная
звезда будет реагировать не только на определенный запомненный вектор,
но также и на незначительные изменения этого вектора. Это достигается
постепенной настройкой нейронных весов при предъявлении в процессе
обучения векторов, представляющих нормированные вариации входного
вектора. Веса настраиваются таким образом, чтобы усреднить величины
обучающих векторов, и нейроны получают способность реагировать на
любой вектор этого класса.
                       Обучение выходной звезды
      В то время как входная звезда учится реагировать на определенный
вход, выходная звезда обучается выдавать требуемый целевой выход.
      Для того чтобы обучить нейрон выходной звезды, его веса настраи-
ваются в соответствии с требуемым целевым выходным вектором Y. Фор-
мула коррекции весов имеет вид:
                         wiN +1 = wiN + β N ( yi − wiN ) ,
где β представляет собой нормирующий коэффициент обучения, который в
начале приблизительно равен единице и постепенно уменьшается до нуля
в процессе обучения.
      Как и в случае входной звезды, веса выходной звезды постепенно
настраиваются на множестве векторов, представляющих собой возможные
вариации запоминаемого выходного вектора.
     5.3. Двухслойная сеть встречного распространения

     Сеть встречного распространения состоит из двух слоев: слоя нейро-
нов Кохонена и слоя нейронов Гроссберга. Автор сети Р. Хехт-Нильсен
                                   29