ВУЗ:
Составители:
92
Поскольку только один нейрон слоя 1 имеет выходной сигнал, равный 1,
то, при а=1, каждый нейрон слоя 2 будет выдавать величину веса v, который
связывает этот нейрон с нейроном-победителем слоя 1.
Предварительная обработка входных векторов. В сети ВР желательно
провести предварительную нормализацию входных векторов. Это выполняется
путем деления каждой компоненты входного вектора на его длину [16]:
22
2
2
1
...
m
i
н
i
xxx
x
x
+++
=
.
Такая операция превращает входной вектор
Х в вектор единичной длины
Х
н
в m-мерном пространстве. Операция нормализации для двумерного вектора
Х поясняется рис. 9.6.
Рис. 9.6. Формирование единичного входного вектора
Для сети с двумя входами двухкомпонентные векторы
Х будут
оканчиваться на единичной окружности (окружности единичного радиуса), рис.
9.7. Для сети с тремя входами трехкомпонентные векторы
Х будут оканчиваться
на поверхности единичной сферы. В общем случае, для сети с m входами m-
компонентные входные векторы
Х будут оканчиваться на поверхности
единичной m-мерной гиперсферы.
Обучение слоя 1. Отличием карты Кохонена от других нейронных
парадигм является то, что в ней используется обучение без учителя, т.е.
самообучение. При самообучении сеть не получает инструкций учителя о
правильности ее ответов на предъявляемые входные образы. Она
самостоятельно решает задачу сопоставления входных образов между собой и
разделяет их в группы схожих, называемые кластерами
. Все образы одного
кластера должны иметь что-то общее и классифицироваться как подобные
(принадлежащие одному классу).
Х
н
x
1
x
2
3/5
4/5
4
3
X
Страницы
- « первая
- ‹ предыдущая
- …
- 90
- 91
- 92
- 93
- 94
- …
- следующая ›
- последняя »
