Человек - интерфейс - компьютер. Будко В.Н. - 66 стр.

UptoLike

Составители: 

С учителем. Учителю известен для каждого входного вектора требуемый выходной
целевой вектор обучающая пары. Сравнением вычисляются ошибки и настройкой весов
минимизируются. Популярны 2-а метода δ-правило и способ обратного распространения
ошибки.
Без учителя. При предъявлении входных векторов НС самоорганизуется путем
настройки своих весов по заданному алгоритму так, что предъявления достаточно близких
входных векторов даёт одинаковые выходы , т.е . НС группирует сходные входные
векторы в классы. После обучения все выходные нейроны возбуждаются, а нейрон с
максимальным возбуждением ассоциирует с данным классом и , хотя целевых векторов
нет НС будет отображать существенные характеристики обучающего набора.
Для программной реализации используют два класса алгоритмов.
Детерминистические : НС пошагово корректирует веса определяемые выходом и
алгоритмом. Стохастические не изменяет веса псевдослучайно , сохраняя те , которые
ведут к уменьшению ошибки . Достоинства : снимается проблема глобального минимума и
возможное отсутствие сходимости сети при малых шагах изменения весов. Недостаток: по
сравнении с детерминистическим алгоритмом длительность процесса обучения.
Пример алгоритма обучения методом δ- правила
Сначала :
- Выбираем уровень допустимости ошибки ε
0
.Для двоичных выходов можно
выбрать ε
0
=0. Составим таблицу обучающих пар
Y
X
1. Задаем случайную матрицу весов небольших значений (-0,3 +0,3) входной
целевой
2. Предъявляем любой вход (вектор входа ) и вычисляем вектор ответа НС
Y
j
НС
3. Вычислим вектор ошибок δ
j
=Y
j
-Y
j
НС
4. Изменяем веса W
ij
=W
ij
+ηε
j
X
i
η-коэф . Скорости обучения лежит в
диапазоне 0<η<=1
5. Вычисляем суммарную ошибку
=
m
j
de
m количество выходов НС
6. если ε>ε
0
идем на шаг 2 иначе завершаем обучение .
7. Тестируем НС входом не входящим во множество векторов обучения.
8.7 Примеры тестирования простых НС
Удобно проводить с помощью геометрических представлений.
Входной вектор
X
это группа (область ) точек в многомерном пространстве .
Распознавание (классификация) это объединение точек или областей образов по
классификационным признакам Y
j
. Например проведение одной или нескольких прямых
(линейная НС) для двумерного образа (входного вектора) или плоскостей (поверхностей)
для трёхмерного образа или плоскостей, криволинейных поверхностей для n>3 мерного
образа .
   С учителем. Учителю известен для каждого входного вектора требуемый выходной
целевой вектор – обучающая пары. Сравнением вычисляются ошибки и настройкой весов
минимизируются. Популярны 2-а метода δ-правило и способ обратного распространения
ошибки.
   Без учителя. При предъявлении входных векторов НС самоорганизуется путем
настройки своих весов по заданному алгоритму так, что предъявления достаточно близких
входных векторов даёт одинаковые выходы , т.е. НС группирует сходные входные
векторы в классы. После обучения все выходные нейроны возбуждаются, а нейрон с
максимальным возбуждением ассоциирует с данным классом и , хотя целевых векторов
нет НС будет отображать существенные характеристики обучающего набора.
   Для     программной      реализации   используют      два    класса    алгоритмов.
Детерминистические: НС пошагово корректирует веса определяемые выходом и
алгоритмом. Стохастические не изменяет веса псевдослучайно, сохраняя те, которые
ведут к уменьшению ошибки. Достоинства: снимается проблема глобального минимума и
возможное отсутствие сходимости сети при малых шагах изменения весов. Недостаток: по
сравнении с детерминистическим алгоритмом – длительность процесса обучения.

Пример алгоритма обучения методом δ- правила

   Сначала :
      -      Выбираем уровень допустимости ошибки ε0.Для двоичных выходов можно
   выбрать ε0=0. Составим таблицу обучающих пар X −Y
      1.     Задаем случайную матрицу весов небольших значений (-0,3…+0,3) входной
   целевой
      2.     Предъявляем любой вход (вектор входа) и вычисляем вектор ответа НС
   YjНС
      3.     Вычислим вектор ошибок δj=Yj-YjНС
      4.     Изменяем веса Wij=Wij+ηεjXi       η-коэф. Скорости обучения лежит в
   диапазоне 0<η<=1
      5.     Вычисляем суммарную ошибку
           m
   e =∑ d      m – количество выходов НС
           j
      6.       если ε>ε0 идем на шаг 2 иначе завершаем обучение.
      7.       Тестируем НС входом не входящим во множество векторов обучения.




8.7 Примеры тестирования простых НС
   Удобно проводить с помощью геометрических представлений.
   Входной вектор X это группа (область) точек в многомерном пространстве.
   Распознавание (классификация) это объединение точек или областей образов по
классификационным признакам Yj . Например проведение одной или нескольких прямых
(линейная НС) для двумерного образа (входного вектора) или плоскостей (поверхностей)
для трёхмерного образа или плоскостей, криволинейных поверхностей для n>3 мерного
образа.