Методы искусственного интеллекта для машинного перевода текстов. Роганов В.Р - 54 стр.

UptoLike

54
ем, который, например, по алгоритму обучения однослойного перцептрона не-
обходимо заставить отображать выходные реакции сети в требуемые образы.
Другой алгоритм обучения без учителяалгоритм Кохоненапредусмат-
ривает подстройку синапсов на основании их значений от предыдущей итера-
ции.
[
]
wt wt y wt
ij ij i
n
ij
() () ()
()
=−+
11
1
α
(33)
Из вышеприведенной формулы видно, что обучение сводится к минимиза-
ции разницы между входными сигналами нейрона, поступающими с выходов
нейронов предыдущего слоя y
i
(n-1)
, и весовыми коэффициентами его синапсов.
Полный алгоритм обучения имеет примерно такую же структуру, как в ме-
тодах Хебба, но на шаге 3 из всего слоя выбирается нейрон, значения синапсов
которого максимально походят на входной образ, и подстройка весов по фор-
муле (3) проводится только для него. Эта, так называемая, аккредитация может
сопровождаться
затормаживанием всех остальных нейронов слоя и введением
выбранного нейрона в насыщение. Выбор такого нейрона может осуществлять-
ся, например, расчетом скалярного произведения вектора весовых коэффициен-
тов с вектором входных значений. Максимальное произведение дает выиграв-
ший нейрон.
Другой вариантрасчет расстояния между этими векторами в p-мерном
пространстве, где p — размер векторов.
Dyw
ji
n
ij
i
p
=−
=
()
()12
0
1
, (34)
где j— индекс нейрона в слое n,
iиндекс суммирования по нейронам слоя (n–1),
w
ij
вес синапса, соединяющего нейроны; выходы нейронов слоя (n–1) яв-
ляются входными значениями для слоя n.
Корень в формуле (34) брать не обязательно, так как важна лишь относительная
оценка различных D
j
.
В данном случае, "побеждает" нейрон с наименьшим расстоянием. Иногда
слишком часто получающие аккредитацию нейроны принудительно исключа-
ем, который, например, по алгоритму обучения однослойного перцептрона не-
обходимо заставить отображать выходные реакции сети в требуемые образы.
       Другой алгоритм обучения без учителя – алгоритм Кохонена – предусмат-
ривает подстройку синапсов на основании их значений от предыдущей итера-
ции.
                                                       [
                         wij (t ) = wij (t − 1) + α ⋅ yi( n−1) − wij (t − 1)   ]   (33)

       Из вышеприведенной формулы видно, что обучение сводится к минимиза-
ции разницы между входными сигналами нейрона, поступающими с выходов
нейронов предыдущего слоя yi(n-1), и весовыми коэффициентами его синапсов.
       Полный алгоритм обучения имеет примерно такую же структуру, как в ме-
тодах Хебба, но на шаге 3 из всего слоя выбирается нейрон, значения синапсов
которого максимально походят на входной образ, и подстройка весов по фор-
муле (3) проводится только для него. Эта, так называемая, аккредитация может
сопровождаться затормаживанием всех остальных нейронов слоя и введением
выбранного нейрона в насыщение. Выбор такого нейрона может осуществлять-
ся, например, расчетом скалярного произведения вектора весовых коэффициен-
тов с вектором входных значений. Максимальное произведение дает выиграв-
ший нейрон.
       Другой вариант — расчет расстояния между этими векторами в p-мерном
пространстве, где p — размер векторов.
                                           p −1
                                  Dj =     ∑ (y
                                           i=0
                                                  ( n −1)
                                                  i         − wij ) 2 ,            (34)

где j— индекс нейрона в слое n,
   i — индекс суммирования по нейронам слоя (n–1),
   wij — вес синапса, соединяющего нейроны; выходы нейронов слоя (n–1) яв-
          ляются входными значениями для слоя n.
Корень в формуле (34) брать не обязательно, так как важна лишь относительная
оценка различных Dj.
       В данном случае, "побеждает" нейрон с наименьшим расстоянием. Иногда
слишком часто получающие аккредитацию нейроны принудительно исключа-

                                                                                    54