Нейронные сети и нейроконтроллеры. Бураков М.В. - 197 стр.

UptoLike

Составители: 

197
конце концов усреднением по всем векторам, которые должны его
активизировать.
Нормализованные входные и весовые векторы можно рассма-
тривать как точки на поверхности единичной гиперсферы. Вход-
ные векторы группируются в классы (образы). Если переписать
весовой вектор в область, соответствующую центру некоторого
класса, то ИН будет возбуждаться при появлении на входе любого
вектора этого класса.
Входные векторы, которым обучают слой Кохонена, обычно рас-
пределены по поверхности гиперсферы не равномерно, а занимают
локальные ее участки. Если до обучения выбирать веса случайно,
можно получить ситуацию, при которой большинство весов будет
настолько удалено от входных векторов, что многие нейроны Ко-
хонена всегда будут иметь нулевой выход. Поэтому необходимо,
чтобы в окрестности каждого входного вектора находились весовые
векторы. Для того чтобы добиться этого, применяют метод выпук-
лой комбинации [25].
Все веса приравниваются к одной и той же величине 1
/,
n где
n – размерность входного и весового векторов, т. е. все компоненты
весовых векторов совпадают и сами они имеют единичную длину.
Каждой компоненте вектора входа Х придается значение
( )
1
1 .
i
x
n
αα
æö
÷
ç
+-
÷
ç
÷
÷
ç
èø
Сначала α мало, и все входные компоненты близки к весовым
компонентам. Потом α увеличивают, и входной вектор становит-
ся все более похож на самого себя. Весовые векторы отслеживают
один вектор или небольшую их группу.
Рис.7.6. Сближение вектора весов
и входного вектора
X
W
W
¢
X W
η ( X
W )