ВУЗ:
Составители:
97
а) б)
Рис. 9.10. Примеры несогласованной плотности распределения
входных и весовых векторов
Очевидно, что оптимальное решение будет состоять в распределении
начальных значений весовых векторов, соответствующем плотности
распределения входных векторов. На практике это не выполнимо, но
существует ряд методов приближения к достижению этой цели.
Модифицированные методы и алгоритмы самоорганизации. Главная
проблема алгоритма самоорганизации WTA − это наличие «мертвых» нейронов,
которые после инициализации ни разу не побеждают в конкурентной борьбе.
Тем самым уменьшается эффективное число нейронов, принимающих участие в
классификации входных образов, а, следовательно, увеличивается общая
погрешность распознавания. Для разрешения этой проблемы применяются
модифицированные методы и алгоритмы самообучения, дающие обычно
существенно лучшие
результаты, чем алгоритм WTA.
Метод выпуклой комбинации (convex combination method)
[16]. На этапе
инициализации сети все начальные веса берутся равными
m1 , где m – число
входов сети (а, следовательно, и компонент весового вектора). Благодаря этому,
все весовые векторы совпадают и имеют единичную длину. Каждой компоненте
вектора
Х вначале придается значение
x
i
(0) =
m
x
i
α−
+α
1
.
Вначале α очень мало, входные векторы имеют длину, близкую к
m1 и
почти совпадают с векторами весов. В процессе обучения α постепенно
W
j
Кластеры,
содержащие
по одному
вектору
Х
W
j
4 вектора Х
из одного
кластера
3 вектора Х
из одного
кластера
Страницы
- « первая
- ‹ предыдущая
- …
- 95
- 96
- 97
- 98
- 99
- …
- следующая ›
- последняя »
