ВУЗ:
Составители:
23
Лабораторная работа № 4
Применение линейных сетей.
Задача классификации векторов
Цель работы: решение задачи классификации с использованием
моделей линейной и персептронной нейронных сетей в системе
MATLAB.
Общие сведения
Линейные сети могут быть применены для решения задач класси-
фикации. Если используется процедура обучения train, то параметры
сети настраиваются с учетом суммарного значения функции ошибки.
Это отличается от процедуры адаптации adapt, для работы которой
характерна настройка параметров с учетом ошибки при представле-
нии каждого вектора входа. Затем обучение применяется к скоррек-
тированной сети
, вычисляются выходы, сравниваются с соответст-
вующими целями и вновь вычисляется ошибка обучения.
Если достигнута допустимая погрешность или превышено макси-
мальное число циклов (эпох) обучения, то процедура настройки пре-
кращается.
Алгоритм обучения и настройки сходится, если задача классифи-
кации разрешима.
Проиллюстрируем решение задачи классификации, ранее решен-
ной с помощью персептрона. Используем
для этого простейшую ли-
нейную сеть, представленную на рисунке.
Обучающее множество представлено следующими четырьмя па-
рами векторов входов и целей:
⎪
⎩
⎪
⎨
⎧
⎭
⎬
⎫
=
⎥
⎦
⎤
⎢
⎣
⎡
−
=
⎪
⎩
⎪
⎨
⎧
⎭
⎬
⎫
=
⎥
⎦
⎤
⎢
⎣
⎡
−
=
⎪
⎩
⎪
⎨
⎧
⎭
⎬
⎫
=
⎥
⎦
⎤
⎢
⎣
⎡
−
=
⎪
⎩
⎪
⎨
⎧
⎭
⎬
⎫
=
⎥
⎦
⎤
⎢
⎣
⎡
= 1,
1
1
0,
2
2
1,
2
1
0,
2
2
44332211
tttt pppp
(1)
Определим линейную сеть с начальными значениями веса и сме-
щения, используемыми по умолчанию, т. е. нулевыми; зададим до-
пустимую погрешность обучения, равную 0.1:
Лабораторная работа № 4 Применение линейных сетей. Задача классификации векторов Цель работы: решение задачи классификации с использованием моделей линейной и персептронной нейронных сетей в системе MATLAB. Общие сведения Линейные сети могут быть применены для решения задач класси- фикации. Если используется процедура обучения train, то параметры сети настраиваются с учетом суммарного значения функции ошибки. Это отличается от процедуры адаптации adapt, для работы которой характерна настройка параметров с учетом ошибки при представле- нии каждого вектора входа. Затем обучение применяется к скоррек- тированной сети, вычисляются выходы, сравниваются с соответст- вующими целями и вновь вычисляется ошибка обучения. Если достигнута допустимая погрешность или превышено макси- мальное число циклов (эпох) обучения, то процедура настройки пре- кращается. Алгоритм обучения и настройки сходится, если задача классифи- кации разрешима. Проиллюстрируем решение задачи классификации, ранее решен- ной с помощью персептрона. Используем для этого простейшую ли- нейную сеть, представленную на рисунке. Обучающее множество представлено следующими четырьмя па- рами векторов входов и целей: ⎧⎪ ⎡2⎤ ⎫⎧⎪ ⎡1⎤ ⎫⎧⎪ ⎡− 2⎤ ⎫⎧⎪ ⎡− 1⎤ ⎫ ⎨p1 = ⎢ ⎥, t1 = 0⎬⎨p2 = ⎢ ⎥, t2 = 1⎬⎨p3 = ⎢ ⎥, t3 = 0⎬⎨p4 = ⎢ ⎥, t4 = 1⎬ (1) ⎪⎩ ⎣2⎦ ⎭⎪⎩ ⎣− 2⎦ ⎭⎪⎩ ⎣2⎦ ⎭⎪⎩ ⎣1⎦ ⎭ Определим линейную сеть с начальными значениями веса и сме- щения, используемыми по умолчанию, т. е. нулевыми; зададим до- пустимую погрешность обучения, равную 0.1: 23
Страницы
- « первая
- ‹ предыдущая
- …
- 21
- 22
- 23
- 24
- 25
- …
- следующая ›
- последняя »