ВУЗ:
Составители:
71
Рис. 7.14 Принцип решения задачи классификации для функции
ИСКЛЮЧАЮЩЕЕ ИЛИ
При необходимости решения более общей задачи − классификации
входных образов на
m классов (при m>2), второй рабочий слой должен
содержать достаточное число нейронов для кодирования сигналов всех
m
классов. В простейшем случае число нейронов этого слоя выбирают равным
количеству классов образов
m.
В трехслойных перцептронах (с тремя рабочими слоями) ограничения по
линейной разделимости полностью снимаются. Их классифицирующие
возможности ограничены лишь числом нейронов и весов.
Следует отметить, что перцептронный принцип решения задач
классификации полностью применим как для дискретных, так и для
непрерывных переменных и областей.
Обучение перцептрона. Перцептрон обучают, подавая множество образов
обучающей
выборки по одному на его входы и подстраивая веса до тех пор,
пока для всех образов не будет достигнут желаемая выходная реакция.
Контроль правильности реакции осуществляет «внешний» учитель, поэтому
обучение перцептрона относится к классу обучения с учителем.
Для уяснения принципа обучения рассмотрим вначале частный случай,
когда число классов образов
m=2 (см. рис. 7.6).
Пусть для обучения перцептрона используется обучающее множество Ψ,
состоящее из
L образов (векторов) обоих классов:
Ψ = (X
1
, X
2
, …, X
L
).
Множество Ψ содержит два подмножества Ψ
1
и Ψ
2
, соответствующих
обучающим выборкам образов 1-го и 2-го классов. Будем полагать, что между
B
A
⋅
B
A
⋅
В
А
B
A
⋅
1
1
2
=z
0
1
2
=z
1
1
1
=z
0
1
1
=z
B
A
⋅
Страницы
- « первая
- ‹ предыдущая
- …
- 69
- 70
- 71
- 72
- 73
- …
- следующая ›
- последняя »
