ВУЗ:
Составители:
29
соответствовали входному вектору. Входная звезда имеет тождественную
активационную функцию:
s
s
f
=
)(, то есть выход входной звезды опреде-
ляется как взвешенная сумма ее входов:
∑
=
=
n
i
ii
xwY
1
. С другой точки зре-
ния, выход можно рассматривать как скалярное произведение входного
вектора с весовым вектором. Если эти векторы имеют единичную норму,
то скалярное произведение будет максимальным для того входного об-
раза, которому нейрон был обучен.
В процессе обучения веса корректируются следующим образом:
)(
1 N
iiN
N
i
N
i
wxww −+=
+
α
,
где w
i
– весовой коэффициент входа х
i
; α – нормирующий коэффициент
обучения, который имеет начальное значение 0.1 и постепенно уменьшает-
ся в процессе обучения.
После завершения обучения предъявление входного вектора
Х будет
активизировать обученный входной нейрон. Хорошо обученная входная
звезда будет реагировать не только на определенный запомненный вектор,
но также и на незначительные изменения этого вектора. Это достигается
постепенной настройкой нейронных весов при предъявлении в процессе
обучения векторов, представляющих нормированные вариации входного
вектора. Веса настраиваются таким образом, чтобы усреднить величины
обучающих
векторов, и нейроны получают способность реагировать на
любой вектор этого класса.
Обучение выходной звезды
В то время как входная звезда учится реагировать на определенный
вход, выходная звезда обучается выдавать требуемый целевой выход.
Для того чтобы обучить нейрон выходной звезды, его веса настраи-
ваются в соответствии с требуемым целевым выходным вектором Y. Фор-
мула коррекции весов имеет вид:
)(
1 N
iiN
N
i
N
i
wyww −+=
+
β
,
где β представляет собой нормирующий коэффициент обучения, который в
начале приблизительно равен единице и постепенно уменьшается до нуля
в процессе обучения.
Как и в случае входной звезды, веса выходной звезды постепенно
настраиваются на множестве векторов, представляющих собой возможные
вариации запоминаемого выходного вектора.
5.3. Двухслойная сеть встречного распространения
Сеть встречного распространения состоит из двух слоев: слоя нейро-
нов Кохонена и слоя нейронов Гроссберга. Автор сети Р. Хехт-Нильсен
соответствовали входному вектору. Входная звезда имеет тождественную активационную функцию: f ( s ) = s , то есть выход входной звезды опреде- n ляется как взвешенная сумма ее входов: Y = ∑ wi xi . С другой точки зре- i =1 ния, выход можно рассматривать как скалярное произведение входного вектора с весовым вектором. Если эти векторы имеют единичную норму, то скалярное произведение будет максимальным для того входного об- раза, которому нейрон был обучен. В процессе обучения веса корректируются следующим образом: wiN +1 = wiN + α N ( xi − wiN ) , где wi весовой коэффициент входа хi; α нормирующий коэффициент обучения, который имеет начальное значение 0.1 и постепенно уменьшает- ся в процессе обучения. После завершения обучения предъявление входного вектора Х будет активизировать обученный входной нейрон. Хорошо обученная входная звезда будет реагировать не только на определенный запомненный вектор, но также и на незначительные изменения этого вектора. Это достигается постепенной настройкой нейронных весов при предъявлении в процессе обучения векторов, представляющих нормированные вариации входного вектора. Веса настраиваются таким образом, чтобы усреднить величины обучающих векторов, и нейроны получают способность реагировать на любой вектор этого класса. Обучение выходной звезды В то время как входная звезда учится реагировать на определенный вход, выходная звезда обучается выдавать требуемый целевой выход. Для того чтобы обучить нейрон выходной звезды, его веса настраи- ваются в соответствии с требуемым целевым выходным вектором Y. Фор- мула коррекции весов имеет вид: wiN +1 = wiN + β N ( yi − wiN ) , где β представляет собой нормирующий коэффициент обучения, который в начале приблизительно равен единице и постепенно уменьшается до нуля в процессе обучения. Как и в случае входной звезды, веса выходной звезды постепенно настраиваются на множестве векторов, представляющих собой возможные вариации запоминаемого выходного вектора. 5.3. Двухслойная сеть встречного распространения Сеть встречного распространения состоит из двух слоев: слоя нейро- нов Кохонена и слоя нейронов Гроссберга. Автор сети Р. Хехт-Нильсен 29
Страницы
- « первая
- ‹ предыдущая
- …
- 27
- 28
- 29
- 30
- 31
- …
- следующая ›
- последняя »