Методы искусственного интеллекта для машинного перевода текстов. Роганов В.Р - 44 стр.

UptoLike

44
Рис. 10 Визуальное представление работы НС с рисунка 7
Наконец, мы можем более подробно рассмотреть вопрос обучения ИНС,
для началана примере перцептрона с рисунка 5.
Рассмотрим алгоритм обучения с учителем.
1. Проинициализировать элементы весовой матрицы (обычно небольшими
случайными значениями).
2. Подать на входы один из входных векторов, которые сеть должна нау-
читься различать, и вычислить ее выход.
3. Если выход соответствует
обучающей выборке, перейти на шаг 4.
Иначе вычислить разницу между идеальным и полученным значениями
выхода:
δ
=
YY
I
Модифицировать веса в соответствии с формулой:
wt wt x
ij ij i
() ()
+
=
+
1
ν
δ
где t и t+1 – номера соответственно текущей и следующей итераций;
ν
коэффициент скорости обучения, 0<
ν
Ј1;
iномер входа;
jномер нейрона в слое.
Очевидно, что если Y
I
> Y весовые коэффициенты будут увеличены и тем
самым уменьшат ошибку. В противном случае они будут уменьшены, и Y тоже
уменьшится, приближаясь к Y
I
.
4. Цикл с шага 2, пока сеть не перестанет ошибаться.
              Рис. 10 Визуальное представление работы НС с рисунка 7


    Наконец, мы можем более подробно рассмотреть вопрос обучения ИНС,
для начала – на примере перцептрона с рисунка 5.
    Рассмотрим алгоритм обучения с учителем.
    1. Проинициализировать элементы весовой матрицы (обычно небольшими
случайными значениями).
    2. Подать на входы один из входных векторов, которые сеть должна нау-
читься различать, и вычислить ее выход.
    3. Если выход соответствует обучающей выборке, перейти на шаг 4.
    Иначе вычислить разницу между идеальным и полученным значениями
выхода:
                                      δ = YI − Y
    Модифицировать веса в соответствии с формулой:
                               wij ( t + 1) = wij (t ) + ν ⋅ δ ⋅ xi

где t и t+1 – номера соответственно текущей и следующей итераций;
   ν – коэффициент скорости обучения, 0<νЈ1;
   i – номер входа;
   j – номер нейрона в слое.
    Очевидно, что если YI > Y весовые коэффициенты будут увеличены и тем
самым уменьшат ошибку. В противном случае они будут уменьшены, и Y тоже
уменьшится, приближаясь к YI.
    4. Цикл с шага 2, пока сеть не перестанет ошибаться.

                                                                       44