ВУЗ:
Составители:
С учителем. Учителю известен для каждого входного вектора требуемый выходной
целевой вектор – обучающая пары. Сравнением вычисляются ошибки и настройкой весов
минимизируются. Популярны 2-а метода δ-правило и способ обратного распространения
ошибки.
Без учителя. При предъявлении входных векторов НС самоорганизуется путем
настройки своих весов по заданному алгоритму так, что предъявления достаточно близких
входных векторов даёт одинаковые выходы , т.е . НС группирует сходные входные
векторы в классы. После обучения все выходные нейроны возбуждаются, а нейрон с
максимальным возбуждением ассоциирует с данным классом и , хотя целевых векторов
нет НС будет отображать существенные характеристики обучающего набора.
Для программной реализации используют два класса алгоритмов.
Детерминистические : НС пошагово корректирует веса определяемые выходом и
алгоритмом. Стохастические не изменяет веса псевдослучайно , сохраняя те , которые
ведут к уменьшению ошибки . Достоинства : снимается проблема глобального минимума и
возможное отсутствие сходимости сети при малых шагах изменения весов. Недостаток: по
сравнении с детерминистическим алгоритмом – длительность процесса обучения.
Пример алгоритма обучения методом δ- правила
Сначала :
- Выбираем уровень допустимости ошибки ε
0
.Для двоичных выходов можно
выбрать ε
0
=0. Составим таблицу обучающих пар
Y
X
−
1. Задаем случайную матрицу весов небольших значений (-0,3… +0,3) входной
целевой
2. Предъявляем любой вход (вектор входа ) и вычисляем вектор ответа НС
Y
j
НС
3. Вычислим вектор ошибок δ
j
=Y
j
-Y
j
НС
4. Изменяем веса W
ij
=W
ij
+ηε
j
X
i
η-коэф . Скорости обучения лежит в
диапазоне 0<η<=1
5. Вычисляем суммарную ошибку
∑
=
m
j
de
m – количество выходов НС
6. если ε>ε
0
идем на шаг 2 иначе завершаем обучение .
7. Тестируем НС входом не входящим во множество векторов обучения.
8.7 Примеры тестирования простых НС
Удобно проводить с помощью геометрических представлений.
Входной вектор
X
это группа (область ) точек в многомерном пространстве .
Распознавание (классификация) это объединение точек или областей образов по
классификационным признакам Y
j
. Например проведение одной или нескольких прямых
(линейная НС) для двумерного образа (входного вектора) или плоскостей (поверхностей)
для трёхмерного образа или плоскостей, криволинейных поверхностей для n>3 мерного
образа .
С учителем. Учителю известен для каждого входного вектора требуемый выходной целевой вектор – обучающая пары. Сравнением вычисляются ошибки и настройкой весов минимизируются. Популярны 2-а метода δ-правило и способ обратного распространения ошибки. Без учителя. При предъявлении входных векторов НС самоорганизуется путем настройки своих весов по заданному алгоритму так, что предъявления достаточно близких входных векторов даёт одинаковые выходы , т.е. НС группирует сходные входные векторы в классы. После обучения все выходные нейроны возбуждаются, а нейрон с максимальным возбуждением ассоциирует с данным классом и , хотя целевых векторов нет НС будет отображать существенные характеристики обучающего набора. Для программной реализации используют два класса алгоритмов. Детерминистические: НС пошагово корректирует веса определяемые выходом и алгоритмом. Стохастические не изменяет веса псевдослучайно, сохраняя те, которые ведут к уменьшению ошибки. Достоинства: снимается проблема глобального минимума и возможное отсутствие сходимости сети при малых шагах изменения весов. Недостаток: по сравнении с детерминистическим алгоритмом – длительность процесса обучения. Пример алгоритма обучения методом δ- правила Сначала : - Выбираем уровень допустимости ошибки ε0.Для двоичных выходов можно выбрать ε0=0. Составим таблицу обучающих пар X −Y 1. Задаем случайную матрицу весов небольших значений (-0,3…+0,3) входной целевой 2. Предъявляем любой вход (вектор входа) и вычисляем вектор ответа НС YjНС 3. Вычислим вектор ошибок δj=Yj-YjНС 4. Изменяем веса Wij=Wij+ηεjXi η-коэф. Скорости обучения лежит в диапазоне 0<η<=1 5. Вычисляем суммарную ошибку m e =∑ d m – количество выходов НС j 6. если ε>ε0 идем на шаг 2 иначе завершаем обучение. 7. Тестируем НС входом не входящим во множество векторов обучения. 8.7 Примеры тестирования простых НС Удобно проводить с помощью геометрических представлений. Входной вектор X это группа (область) точек в многомерном пространстве. Распознавание (классификация) это объединение точек или областей образов по классификационным признакам Yj . Например проведение одной или нескольких прямых (линейная НС) для двумерного образа (входного вектора) или плоскостей (поверхностей) для трёхмерного образа или плоскостей, криволинейных поверхностей для n>3 мерного образа.
Страницы
- « первая
- ‹ предыдущая
- …
- 64
- 65
- 66
- 67
- 68
- …
- следующая ›
- последняя »