Составители:
Рубрика:
197
конце концов усреднением по всем векторам, которые должны его
активизировать.
Нормализованные входные и весовые векторы можно рассма-
тривать как точки на поверхности единичной гиперсферы. Вход-
ные векторы группируются в классы (образы). Если переписать
весовой вектор в область, соответствующую центру некоторого
класса, то ИН будет возбуждаться при появлении на входе любого
вектора этого класса.
Входные векторы, которым обучают слой Кохонена, обычно рас-
пределены по поверхности гиперсферы не равномерно, а занимают
локальные ее участки. Если до обучения выбирать веса случайно,
можно получить ситуацию, при которой большинство весов будет
настолько удалено от входных векторов, что многие нейроны Ко-
хонена всегда будут иметь нулевой выход. Поэтому необходимо,
чтобы в окрестности каждого входного вектора находились весовые
векторы. Для того чтобы добиться этого, применяют метод выпук-
лой комбинации [25].
Все веса приравниваются к одной и той же величине 1
/,
n где
n – размерность входного и весового векторов, т. е. все компоненты
весовых векторов совпадают и сами они имеют единичную длину.
Каждой компоненте вектора входа Х придается значение
( )
1
1 .
i
x
n
αα
æö
÷
ç
+-
÷
ç
÷
÷
ç
èø
Сначала α мало, и все входные компоненты близки к весовым
компонентам. Потом α увеличивают, и входной вектор становит-
ся все более похож на самого себя. Весовые векторы отслеживают
один вектор или небольшую их группу.
Рис.7.6. Сближение вектора весов
и входного вектора
X
W
W
¢
X – W
η ( X –
W )
Страницы
- « первая
- ‹ предыдущая
- …
- 195
- 196
- 197
- 198
- 199
- …
- следующая ›
- последняя »
