Интеллектуальные информационные системы. Макаренко С.И. - 146 стр.

UptoLike

Составители: 

145
Будем называть нейронную сеть обученной на данной обучающей
выборке, если при подаче на вход сети вектора {x
α
} на выходе всегда
получается соответствующий вектор {y
α
} т.е. каждому набору признаков
соответствуют определенные классы.
Ф.Розенблаттом предложен итерационный алгоритм обучения из 4-х
шагов, который состоит в подстройке матрицы весов, последовательно
уменьшающей ошибку в выходных векторах [1]:
Шаг 0: Начальные значения весов всех нейронов полагаются
случайными.
Шаг 1: Сети предъявляется входной образ x
α
, в результате
формируется выходной образ.
Шаг 2: Вычисляется вектор ошибки, делаемой сетью на выходе.
Шаг 3: Вектора весовых коэффициентов корректируются таким
образом, что величина корректировки пропорциональна
ошибке на выходе и равна нулю если ошибка равна нулю:
модифицируются только компоненты матрицы весов,
отвечающие ненулевым значениям входов;
знак приращения веса соответствует знаку ошибки, т.е.
положительная ошибка (значение выхода меньше требуемого)
проводит к усилению связи;
обучение каждого нейрона происходит независимо от
обучения остальных нейронов, что соответствует важному с
биологической точки зрения, принципу локальности обучения.
Шаг 4: Шаги 1-3 повторяются для всех обучающих векторов. Один
цикл последовательного предъявления всей выборки
называется эпохой. Обучение завершается по истечении
нескольких эпох, если выполняется по крайней мере одно из
условий:
когда итерации сойдутся, т.е. вектор весов перестает
изменяться;
когда полная просуммированная по всем векторам
абсолютная ошибка станет меньше некоторого малого
    Будем называть нейронную сеть обученной на данной обучающей
выборке, если при подаче на вход сети вектора {xα} на выходе всегда
получается соответствующий вектор {yα} т.е. каждому набору признаков
соответствуют определенные классы.
    Ф.Розенблаттом предложен итерационный алгоритм обучения из 4-х
шагов, который состоит в подстройке матрицы весов, последовательно
уменьшающей ошибку в выходных векторах [1]:

 Шаг 0:   Начальные значения     весов   всех   нейронов     полагаются
          случайными.
 Шаг 1:   Сети предъявляется входной       образ   xα,   в   результате
          формируется выходной образ.

 Шаг 2:   Вычисляется вектор ошибки, делаемой сетью на выходе.

 Шаг 3:   Вектора весовых коэффициентов корректируются таким
          образом, что величина корректировки пропорциональна
          ошибке на выходе и равна нулю если ошибка равна нулю:
          – модифицируются только компоненты         матрицы     весов,
          отвечающие ненулевым значениям входов;
          – знак приращения веса соответствует знаку ошибки, т.е.
          положительная ошибка (значение выхода меньше требуемого)
          проводит к усилению связи;
          – обучение каждого нейрона происходит независимо от
          обучения остальных нейронов, что соответствует важному с
          биологической точки зрения, принципу локальности обучения.

Шаг 4:    Шаги 1-3 повторяются для всех обучающих векторов. Один
          цикл последовательного предъявления всей выборки
          называется эпохой. Обучение завершается по истечении
          нескольких эпох, если выполняется по крайней мере одно из
          условий:
          – когда итерации сойдутся, т.е. вектор весов перестает
          изменяться;
          – когда полная просуммированная по всем векторам
          абсолютная ошибка станет меньше некоторого малого


                                145