ВУЗ:
Составители:
65
∑
=
+=
n
i
ii
cxcG
1
0
].sign[)(X
(7.2)
Сравнивая выражение (7.1) для выходного сигнала α-перцептрона и
выражение (7.2) для разделяющей гиперплоскости, видим, что математически
они идентичны. Это свидетельствует о том, что перцептрон в процессе
обучения путем подстройки весовых коэффициентов и порогов в
математическом смысле формирует в пространстве входных данных не что
иное, как гиперплоскость, линейно разделяющую это
пространство на два
подпространства. При этом каждому подпространству соответствует множество
входных образов одного из двух классов. Из этого следует важный вывод:
перцептрон способен обучиться разделять множества входных образов на
классы только в том случае, если между этими множествами можно построить
разделяющую линейную поверхность (гиперплоскость). Такая задача
классификации относится к задачам
линейной сепарации.
Рис. 7.7. иллюстрирует линейное разделение двух множеств R
1
и R
2
для
случая n=2.
Рис. 7.7. Линейное разделение двух множеств R
1
и R
2
для случая n=2
Таким образом, линейная разделимость для α-перцептрона означает
возможность геометрического разделения множества точек n-мерного
пространства линейной гиперповерхностью (гиперплоскостью). При n=2 – это
линия (см. рис. 7.7), при n=3 – плоскость, при n>3 – гиперплоскость.
Линейная разделимость при распознавании образов
m классов. При
решении на перцептроне более общей задачи − классификации входных образов
на m классов (при m>2), он будет иметь три слоя нейронов: входной, рабочий и
выходной, рис. 7.8. Входной слой – вспомогательный, выполняет функции
приема и распределения входных сигналов. Рабочий – это основной слой с
переменными весами нейронов, настраиваемыми в процессе обучения.
Рабочий
R
1
R
2
G(X)
x
1
x
2
Страницы
- « первая
- ‹ предыдущая
- …
- 63
- 64
- 65
- 66
- 67
- …
- следующая ›
- последняя »