Методы искусственного интеллекта для машинного перевода текстов. Роганов В.Р - 53 стр.

UptoLike

53
нейроны, выходы которых наиболее динамично изменились в сторону увеличе-
ния.
Полный алгоритм обучения с применением вышеприведенных формул бу-
дет выглядеть так:
1. На стадии инициализации всем весовым коэффициентам присваиваются
небольшие случайные значения.
2. На входы сети подается входной образ, и сигналы возбуждения распро-
страняются по всем слоям согласно принципам классических прямопоточных
(feedforward)
сетей [1], то есть для каждого нейрона рассчитывается взвешенная
сумма его входов, к которой затем применяется активационная (передаточная)
функция нейрона, в результате чего получается его выходное значение y
i
(n)
,
i=0...M
i
–1, где M
i
число нейронов в слое i; n=0...N–1, а N — число слоев в се-
ти.
3. На основании полученных выходных значений нейронов по формуле
(31) или (32) производится изменение весовых коэффициентов.
4. Цикл с шага 2, пока выходные значения сети не застабилизируются с за-
данной точностью. Применение этого нового способа определения завершения
обучения, отличного от использовавшегося
для сети обратного распростране-
ния, обусловлено тем, что подстраиваемые значения синапсов фактически не
ограничены.
На втором шаге цикла попеременно предъявляются все образы из входного
набора.
Следует отметить, что вид откликов на каждый класс входных образов не
известен заранее и будет представлять собой произвольное сочетание состоя-
ний нейронов выходного слоя, обусловленное
случайным распределением ве-
сов на стадии инициализации. Вместе с тем, сеть способна обобщать схожие
образы, относя их к одному классу. Тестирование обученной сети позволяет
определить топологию классов в выходном слое. Для приведения откликов
обученной сети к удобному представлению можно дополнить сеть одним сло-
нейроны, выходы которых наиболее динамично изменились в сторону увеличе-
ния.
       Полный алгоритм обучения с применением вышеприведенных формул бу-
дет выглядеть так:
       1. На стадии инициализации всем весовым коэффициентам присваиваются
небольшие случайные значения.
       2. На входы сети подается входной образ, и сигналы возбуждения распро-
страняются по всем слоям согласно принципам классических прямопоточных
(feedforward) сетей [1], то есть для каждого нейрона рассчитывается взвешенная
сумма его входов, к которой затем применяется активационная (передаточная)
функция нейрона, в результате чего получается его выходное значение yi(n),
i=0...Mi–1, где Mi — число нейронов в слое i; n=0...N–1, а N — число слоев в се-
ти.
       3. На основании полученных выходных значений нейронов по формуле
(31) или (32) производится изменение весовых коэффициентов.
       4. Цикл с шага 2, пока выходные значения сети не застабилизируются с за-
данной точностью. Применение этого нового способа определения завершения
обучения, отличного от использовавшегося для сети обратного распростране-
ния, обусловлено тем, что подстраиваемые значения синапсов фактически не
ограничены.
       На втором шаге цикла попеременно предъявляются все образы из входного
набора.
       Следует отметить, что вид откликов на каждый класс входных образов не
известен заранее и будет представлять собой произвольное сочетание состоя-
ний нейронов выходного слоя, обусловленное случайным распределением ве-
сов на стадии инициализации. Вместе с тем, сеть способна обобщать схожие
образы, относя их к одному классу. Тестирование обученной сети позволяет
определить топологию классов в выходном слое. Для приведения откликов
обученной сети к удобному представлению можно дополнить сеть одним сло-



                                                                              53