ВУЗ:
Составители:
23
Лабораторная работа № 4
Применение линейных сетей.
Задача классификации векторов
Цель работы: решение задачи классификации с использованием
моделей линейной и персептронной нейронных сетей в системе
MATLAB.
Общие сведения
Линейные сети могут быть применены для решения задач класси-
фикации. Если используется процедура обучения train, то параметры
сети настраиваются с учетом суммарного значения функции ошибки.
Это отличается от процедуры адаптации adapt, для работы которой
характерна настройка параметров с учетом ошибки при представле-
нии каждого вектора входа. Затем обучение применяется к скоррек-
тированной сети
, вычисляются выходы, сравниваются с соответст-
вующими целями и вновь вычисляется ошибка обучения.
Если достигнута допустимая погрешность или превышено макси-
мальное число циклов (эпох) обучения, то процедура настройки пре-
кращается.
Алгоритм обучения и настройки сходится, если задача классифи-
кации разрешима.
Проиллюстрируем решение задачи классификации, ранее решен-
ной с помощью персептрона. Используем
для этого простейшую ли-
нейную сеть, представленную на рисунке.
Обучающее множество представлено следующими четырьмя па-
рами векторов входов и целей:
⎪
⎩
⎪
⎨
⎧
⎭
⎬
⎫
=
⎥
⎦
⎤
⎢
⎣
⎡
−
=
⎪
⎩
⎪
⎨
⎧
⎭
⎬
⎫
=
⎥
⎦
⎤
⎢
⎣
⎡
−
=
⎪
⎩
⎪
⎨
⎧
⎭
⎬
⎫
=
⎥
⎦
⎤
⎢
⎣
⎡
−
=
⎪
⎩
⎪
⎨
⎧
⎭
⎬
⎫
=
⎥
⎦
⎤
⎢
⎣
⎡
= 1,
1
1
0,
2
2
1,
2
1
0,
2
2
44332211
tttt pppp
(1)
Определим линейную сеть с начальными значениями веса и сме-
щения, используемыми по умолчанию, т. е. нулевыми; зададим до-
пустимую погрешность обучения, равную 0.1:
Лабораторная работа № 4
Применение линейных сетей.
Задача классификации векторов
Цель работы: решение задачи классификации с использованием
моделей линейной и персептронной нейронных сетей в системе
MATLAB.
Общие сведения
Линейные сети могут быть применены для решения задач класси-
фикации. Если используется процедура обучения train, то параметры
сети настраиваются с учетом суммарного значения функции ошибки.
Это отличается от процедуры адаптации adapt, для работы которой
характерна настройка параметров с учетом ошибки при представле-
нии каждого вектора входа. Затем обучение применяется к скоррек-
тированной сети, вычисляются выходы, сравниваются с соответст-
вующими целями и вновь вычисляется ошибка обучения.
Если достигнута допустимая погрешность или превышено макси-
мальное число циклов (эпох) обучения, то процедура настройки пре-
кращается.
Алгоритм обучения и настройки сходится, если задача классифи-
кации разрешима.
Проиллюстрируем решение задачи классификации, ранее решен-
ной с помощью персептрона. Используем для этого простейшую ли-
нейную сеть, представленную на рисунке.
Обучающее множество представлено следующими четырьмя па-
рами векторов входов и целей:
⎧⎪ ⎡2⎤ ⎫⎧⎪ ⎡1⎤ ⎫⎧⎪ ⎡− 2⎤ ⎫⎧⎪ ⎡− 1⎤ ⎫
⎨p1 = ⎢ ⎥, t1 = 0⎬⎨p2 = ⎢ ⎥, t2 = 1⎬⎨p3 = ⎢ ⎥, t3 = 0⎬⎨p4 = ⎢ ⎥, t4 = 1⎬ (1)
⎪⎩ ⎣2⎦ ⎭⎪⎩ ⎣− 2⎦ ⎭⎪⎩ ⎣2⎦ ⎭⎪⎩ ⎣1⎦ ⎭
Определим линейную сеть с начальными значениями веса и сме-
щения, используемыми по умолчанию, т. е. нулевыми; зададим до-
пустимую погрешность обучения, равную 0.1:
23
Страницы
- « первая
- ‹ предыдущая
- …
- 21
- 22
- 23
- 24
- 25
- …
- следующая ›
- последняя »
