Математические методы искусственного интеллекта. Броневич А.Г - 23 стр.

UptoLike

Рубрика: 

23
(, ) (, )ad n+=x
y
x
y
; (, ) (, ) (, ) 2(, )
ii
i
x
ya d a n===
xy xy xy xy .
Тогда мера близости (, )a
x
y
между двумя биполярными векторами бу-
дет равна
1
(, )
22
ii
i
n
axy=+
xy . Если имеется m эталонных векторов, то мера
близости между входным вектором
x и эталонным вектором
k
e будет равна
1
(, )
22
kiki
i
n
aey=+
xe
.
Таким образом, если синапсом k-го нейрона является вектор
()
0
n
kik
i
w
=
=w
, где
0
2
k
wn= , 2
ik ik
we= ( 1,...,kn= ), то после поступления на
вход нейрона вектора
1
(1, ,..., )
n
x
x=x
на выходе этого нейрона получим значе-
ние меры близости данного вектора к
k-му вектору-эталону.
НС Хэмминга имеет два слоя. В первом слое
m нейронов (по числу
эталонов), на каждый из которых поступают все компоненты входного век-
тора
x
. Каждый k-й нейрон этого слоя вычисляет значение меры близости
k
a
вектора
x к эталонному вектору
k
e . Во втором слое (так называемая сеть
Maxnet) вектор мер близости
1
( ,..., )
m
aa=a преобразуется в вектор
1
( ,..., )
m
yy, в
котором будет только одна ненулевая компонента. Номер этой компоненты
должен быть равен номеру того эталона, к которому наиболее близок (в
смысле метрики Хэмминга) входной вектор
x
.
Сеть Maxnet является полносвязной и одно-
слойной, состоящей из
m нейронов. Выходные
сигналы каждого нейрона поступают на входы
всех нейронов сети. Сеть функционирует в ите-
рационном режиме до тех пор, пока значения
выходных нейронов не стабилизируются. Схема
сети Хэмминга показана на рис. 12.
Алгоритм Хэмминга состоит из следую-
щей последовательности шагов:
1. На вход первого слоя подается сигнал
1
(1, ,..., )
n
x
x=x
и вычисляется
вектор
1
( ,..., )
m
aa=a мер близостей (
kk
a =⋅wx
), при этом полагаем (0)
ii
ya=
( 1,...,
im= ) и 0t = .
2.
На вход каждого k -го нейрона второго слоя поступает вектор ()
i
yt.
Рассчитываются новые состояния нейронов по формуле (1) ()
iijj
j
s
tqyt+=
,
где
{
1, ,
,,
ij
ij
q
ij
ε
=
=
−≠
01n
ε
<≤ . Вычисляются новые значения аксонов (функ-
ции активации) ( 1) ( ( 1))
ii
yt fst+= + , где
{
,0,
()
0, 0.
uu
fu
u
=
<
3.
Проверяется условие стабилизации аксонов: если аксоны стабили-
зировались (т.е. ( 1) ( )
ii
yt yt+= для всех
i
), то алгоритм завершает работу, в
противном случае переходим к пункту 2.
m
1
2
n
x
x
x
=x
1
2
...
1
y
2
y
m
y
Рис.12
m
1
2
...
1
a
2
a
m
a
ε
ε
ε
...