Составители:
Рубрика:
145
Будем называть нейронную сеть обученной на данной обучающей
выборке, если при подаче на вход сети вектора {x
α
} на выходе всегда
получается соответствующий вектор {y
α
} т.е. каждому набору признаков
соответствуют определенные классы.
Ф.Розенблаттом предложен итерационный алгоритм обучения из 4-х
шагов, который состоит в подстройке матрицы весов, последовательно
уменьшающей ошибку в выходных векторах [1]:
Шаг 0: Начальные значения весов всех нейронов полагаются
случайными.
Шаг 1: Сети предъявляется входной образ x
α
, в результате
формируется выходной образ.
Шаг 2: Вычисляется вектор ошибки, делаемой сетью на выходе.
Шаг 3: Вектора весовых коэффициентов корректируются таким
образом, что величина корректировки пропорциональна
ошибке на выходе и равна нулю если ошибка равна нулю:
– модифицируются только компоненты матрицы весов,
отвечающие ненулевым значениям входов;
– знак приращения веса соответствует знаку ошибки, т.е.
положительная ошибка (значение выхода меньше требуемого)
проводит к усилению связи;
– обучение каждого нейрона происходит независимо от
обучения остальных нейронов, что соответствует важному с
биологической точки зрения, принципу локальности обучения.
Шаг 4: Шаги 1-3 повторяются для всех обучающих векторов. Один
цикл последовательного предъявления всей выборки
называется эпохой. Обучение завершается по истечении
нескольких эпох, если выполняется по крайней мере одно из
условий:
– когда итерации сойдутся, т.е. вектор весов перестает
изменяться;
– когда полная просуммированная по всем векторам
абсолютная ошибка станет меньше некоторого малого
Будем называть нейронную сеть обученной на данной обучающей
выборке, если при подаче на вход сети вектора {xα} на выходе всегда
получается соответствующий вектор {yα} т.е. каждому набору признаков
соответствуют определенные классы.
Ф.Розенблаттом предложен итерационный алгоритм обучения из 4-х
шагов, который состоит в подстройке матрицы весов, последовательно
уменьшающей ошибку в выходных векторах [1]:
Шаг 0: Начальные значения весов всех нейронов полагаются
случайными.
Шаг 1: Сети предъявляется входной образ xα, в результате
формируется выходной образ.
Шаг 2: Вычисляется вектор ошибки, делаемой сетью на выходе.
Шаг 3: Вектора весовых коэффициентов корректируются таким
образом, что величина корректировки пропорциональна
ошибке на выходе и равна нулю если ошибка равна нулю:
– модифицируются только компоненты матрицы весов,
отвечающие ненулевым значениям входов;
– знак приращения веса соответствует знаку ошибки, т.е.
положительная ошибка (значение выхода меньше требуемого)
проводит к усилению связи;
– обучение каждого нейрона происходит независимо от
обучения остальных нейронов, что соответствует важному с
биологической точки зрения, принципу локальности обучения.
Шаг 4: Шаги 1-3 повторяются для всех обучающих векторов. Один
цикл последовательного предъявления всей выборки
называется эпохой. Обучение завершается по истечении
нескольких эпох, если выполняется по крайней мере одно из
условий:
– когда итерации сойдутся, т.е. вектор весов перестает
изменяться;
– когда полная просуммированная по всем векторам
абсолютная ошибка станет меньше некоторого малого
145
Страницы
- « первая
- ‹ предыдущая
- …
- 144
- 145
- 146
- 147
- 148
- …
- следующая ›
- последняя »
