ВУЗ:
Составители:
53
Нейроны в обоих слоях сети ДАП функционируют аналогично ней-
ронам сети Хопфилда. Этот процесс может быть выражен следующим об-
разом:
mjwxfy
n
i
ji
N
i
N
j
,1,)(
1
1
==
∑
=
+
,
∑
=
++
==
m
j
ij
N
j
N
i
niwyfx
1
11
,1),( ,
где
⎪
⎪
⎩
⎪
⎪
⎨
⎧
Θ=
Θ>
Θ<−
=
,),(
;,1
;,1
)(
j
pred
j
j
ssf
s
s
sf
)(sf
pred
– значение функции активации данного нейрона на предыдущем
шаге.
Пусть задана обучающая выборка ассоциированных образов
KkYX
kk
,1),,( = . Весовая матрица сети ДАП вычисляется как сумма про-
изведений всех векторных пар обучающего набора:
mjniyxw
K
k
k
j
k
iij
,1,,1,
1
===
∑
=
.
В отличие от сети Хопфилда, весовая матрица в сети ДАП не квад-
ратная, что во многих случаях позволяет оптимизировать вычислительные
затраты, необходимые для функционирования сети. Вернемся к примеру с
запоминанием букв А, В, С, рассмотренному в п. 7.1. Сеть Хопфилда в
этом примере имела 10 × 7 = 70 входов и требовала для своей работы хра-
нения весовой матрицы размером 70 × 70, содержащей 4900 элементов.
Ассоциируем с каждым из входных образов сети двухбитовый вектор:
символ A будет связан с вектором (1,–1,–1), символ B с вектором (–1, 1,–1),
символ C с вектором (–1,–1,1). Таким образом, например, при подаче на
вход искаженной версии буквы A, сеть после стабилизации должна выда-
вать образ (1,–1, –1). Так как ассоциированные пары заранее известны, это
приведет
к правильному распознаванию зашумленного входа. Но для ра-
боты такой сети требуется хранение всего 70 × 3 = 210 элементов весовой
матрицы.
Основным недостатком сети ДАП (как и сети Хопфилда) является
небольшая емкость памяти. Так, например, число запоминаемых ассоциа-
ций не может превышать числа нейронов в меньшем слое. Если все поро-
говые значения
j
Θ будут нулевыми, то оценка еще ухудшается: размер за-
поминаемой выборки не должен превосходить
l
l
2
log2
, где −
l
число ней-
Нейроны в обоих слоях сети ДАП функционируют аналогично ней-
ронам сети Хопфилда. Этот процесс может быть выражен следующим об-
разом:
n
y Nj +1 = f (∑ xiN w ji ), j = 1, m ,
i =1
m
xiN +1 = f ( ∑ y Nj +1wij ), i = 1, n ,
j =1
⎧− 1, s < Θ j ;
⎪⎪
где f ( s ) = ⎨1, s > Θ j ;
⎪ pred
⎪⎩ f ( s ), s = Θ j ,
f pred (s ) значение функции активации данного нейрона на предыдущем
шаге.
Пусть задана обучающая выборка ассоциированных образов
( X , Y k ), k = 1, K . Весовая матрица сети ДАП вычисляется как сумма про-
k
изведений всех векторных пар обучающего набора:
K
wij = ∑ xik y kj , i = 1, n, j = 1, m .
k =1
В отличие от сети Хопфилда, весовая матрица в сети ДАП не квад-
ратная, что во многих случаях позволяет оптимизировать вычислительные
затраты, необходимые для функционирования сети. Вернемся к примеру с
запоминанием букв А, В, С, рассмотренному в п. 7.1. Сеть Хопфилда в
этом примере имела 10 × 7 = 70 входов и требовала для своей работы хра-
нения весовой матрицы размером 70 × 70, содержащей 4900 элементов.
Ассоциируем с каждым из входных образов сети двухбитовый вектор:
символ A будет связан с вектором (1,1,1), символ B с вектором (1, 1,1),
символ C с вектором (1,1,1). Таким образом, например, при подаче на
вход искаженной версии буквы A, сеть после стабилизации должна выда-
вать образ (1,1, 1). Так как ассоциированные пары заранее известны, это
приведет к правильному распознаванию зашумленного входа. Но для ра-
боты такой сети требуется хранение всего 70 × 3 = 210 элементов весовой
матрицы.
Основным недостатком сети ДАП (как и сети Хопфилда) является
небольшая емкость памяти. Так, например, число запоминаемых ассоциа-
ций не может превышать числа нейронов в меньшем слое. Если все поро-
говые значения Θ j будут нулевыми, то оценка еще ухудшается: размер за-
l
поминаемой выборки не должен превосходить , где l − число ней-
2 log 2 l
53
Страницы
- « первая
- ‹ предыдущая
- …
- 51
- 52
- 53
- 54
- 55
- …
- следующая ›
- последняя »
