Нейронные сети и нейроконтроллеры. Бураков М.В. - 198 стр.

UptoLike

Составители: 

198
Кроме метода выпуклой комбинации существуют и другие мето-
ды. Например, к входным векторам можно добавлять шумы, чтобы
каждый нейрон в конце концов захватил свой весовой вектор.
Еще один метод заставляет каждый нейрон Кохонена действовать
«по справедливости», так, чтобы нейроны, которые возбуждаются
чаще других, были подавлены, и могли обучиться все нейроны.
Пример 7.1. Рассмотрим простой пример обучения слоя конку-
рирующих нейронов. Пусть даны четыре входных вектора:
12 34
10 10
10 00
.
00 01
01 01
,, ,XX XX
éù éù éù éù
êú êú êú êú
êú êú êú êú
êú êú êú êú
== ==
êú êú êú êú
êú êú êú êú
êú êú êú êú
êú êú êú êú
ëû ëû ëû ëû
Они должны быть кластеризованы сетью Кохонена, имеющей два
нейрона. При обучении изменяются веса только нейрона-победителя.
Пусть веса нейронов получили некоторые случайные начальные
значения (ненормализованные):
òò
12
02 08
06 04
05 07
09 03
,,
,,
,.
,,
,,
WW
éù éù
êú êú
êú êú
êú êú
==
êú êú
êú êú
êú êú
êú êú
ëû ëû
На первом шаге обучения подается входной вектор X
1
и вычис-
ляется расстояние от него до весовых векторов (по формуле (7.1)):
4
ò2
1 11
1
1 36( ) ,,
ii
i
d XW xw
=
=- = - »
å
4
ò2
2 22
1
0 99( ) ,.
ii
i
d X W xw
=
=- = - »
å
Таким образом, победившим оказывается второй нейрон, и его
веса подстраиваются (η = 0,6):
ò
2
08 1 08 092
04 1 04 076
06
07 0 07 028
03 0 03 012
, ,,
, ,,
,.
, ,,
, ,,
W
éù
éù éùéùé ù
êú
êú êúêúê ú
êú
êú êúêúê ú
êú
êú êúêúê ú
= + ×- =
êú
êú êúêúê ú
êú
êú êúêúê ú
êú
êú êúêúê ú
êú êúêúê ú
êú
ëû ëûëûë û
ëû