Моделирование искусственных нейронных сетей в системе MATLAB. Часть 2. Линейные сети. Донской Д.А - 23 стр.

UptoLike

23
Лабораторная работа 4
Применение линейных сетей.
Задача классификации векторов
Цель работы: решение задачи классификации с использованием
моделей линейной и персептронной нейронных сетей в системе
MATLAB.
Общие сведения
Линейные сети могут быть применены для решения задач класси-
фикации. Если используется процедура обучения train, то параметры
сети настраиваются с учетом суммарного значения функции ошибки.
Это отличается от процедуры адаптации adapt, для работы которой
характерна настройка параметров с учетом ошибки при представле-
нии каждого вектора входа. Затем обучение применяется к скоррек-
тированной сети
, вычисляются выходы, сравниваются с соответст-
вующими целями и вновь вычисляется ошибка обучения.
Если достигнута допустимая погрешность или превышено макси-
мальное число циклов (эпох) обучения, то процедура настройки пре-
кращается.
Алгоритм обучения и настройки сходится, если задача классифи-
кации разрешима.
Проиллюстрируем решение задачи классификации, ранее решен-
ной с помощью персептрона. Используем
для этого простейшую ли-
нейную сеть, представленную на рисунке.
Обучающее множество представлено следующими четырьмя па-
рами векторов входов и целей:
=
=
=
=
=
=
=
= 1,
1
1
0,
2
2
1,
2
1
0,
2
2
44332211
tttt pppp
(1)
Определим линейную сеть с начальными значениями веса и сме-
щения, используемыми по умолчанию, т. е. нулевыми; зададим до-
пустимую погрешность обучения, равную 0.1:
               Лабораторная работа № 4
       Применение линейных сетей.
     Задача классификации векторов
  Цель работы: решение задачи классификации с использованием
моделей линейной и персептронной нейронных сетей в системе
MATLAB.
                        Общие сведения
   Линейные сети могут быть применены для решения задач класси-
фикации. Если используется процедура обучения train, то параметры
сети настраиваются с учетом суммарного значения функции ошибки.
Это отличается от процедуры адаптации adapt, для работы которой
характерна настройка параметров с учетом ошибки при представле-
нии каждого вектора входа. Затем обучение применяется к скоррек-
тированной сети, вычисляются выходы, сравниваются с соответст-
вующими целями и вновь вычисляется ошибка обучения.
   Если достигнута допустимая погрешность или превышено макси-
мальное число циклов (эпох) обучения, то процедура настройки пре-
кращается.
   Алгоритм обучения и настройки сходится, если задача классифи-
кации разрешима.
   Проиллюстрируем решение задачи классификации, ранее решен-
ной с помощью персептрона. Используем для этого простейшую ли-
нейную сеть, представленную на рисунке.
   Обучающее множество представлено следующими четырьмя па-
рами векторов входов и целей:
⎧⎪     ⎡2⎤        ⎫⎧⎪    ⎡1⎤        ⎫⎧⎪    ⎡− 2⎤      ⎫⎧⎪    ⎡− 1⎤      ⎫
 ⎨p1 = ⎢ ⎥, t1 = 0⎬⎨p2 = ⎢ ⎥, t2 = 1⎬⎨p3 = ⎢ ⎥, t3 = 0⎬⎨p4 = ⎢ ⎥, t4 = 1⎬ (1)
 ⎪⎩    ⎣2⎦        ⎭⎪⎩    ⎣− 2⎦      ⎭⎪⎩    ⎣2⎦        ⎭⎪⎩    ⎣1⎦        ⎭
    Определим линейную сеть с начальными значениями веса и сме-
щения, используемыми по умолчанию, т. е. нулевыми; зададим до-
пустимую погрешность обучения, равную 0.1:



                                     23