ВУЗ:
Составители:
53
Нейроны в обоих слоях сети ДАП функционируют аналогично ней-
ронам сети Хопфилда. Этот процесс может быть выражен следующим об-
разом:
mjwxfy
n
i
ji
N
i
N
j
,1,)(
1
1
==
∑
=
+
,
∑
=
++
==
m
j
ij
N
j
N
i
niwyfx
1
11
,1),( ,
где
⎪
⎪
⎩
⎪
⎪
⎨
⎧
Θ=
Θ>
Θ<−
=
,),(
;,1
;,1
)(
j
pred
j
j
ssf
s
s
sf
)(sf
pred
– значение функции активации данного нейрона на предыдущем
шаге.
Пусть задана обучающая выборка ассоциированных образов
KkYX
kk
,1),,( = . Весовая матрица сети ДАП вычисляется как сумма про-
изведений всех векторных пар обучающего набора:
mjniyxw
K
k
k
j
k
iij
,1,,1,
1
===
∑
=
.
В отличие от сети Хопфилда, весовая матрица в сети ДАП не квад-
ратная, что во многих случаях позволяет оптимизировать вычислительные
затраты, необходимые для функционирования сети. Вернемся к примеру с
запоминанием букв А, В, С, рассмотренному в п. 7.1. Сеть Хопфилда в
этом примере имела 10 × 7 = 70 входов и требовала для своей работы хра-
нения весовой матрицы размером 70 × 70, содержащей 4900 элементов.
Ассоциируем с каждым из входных образов сети двухбитовый вектор:
символ A будет связан с вектором (1,–1,–1), символ B с вектором (–1, 1,–1),
символ C с вектором (–1,–1,1). Таким образом, например, при подаче на
вход искаженной версии буквы A, сеть после стабилизации должна выда-
вать образ (1,–1, –1). Так как ассоциированные пары заранее известны, это
приведет
к правильному распознаванию зашумленного входа. Но для ра-
боты такой сети требуется хранение всего 70 × 3 = 210 элементов весовой
матрицы.
Основным недостатком сети ДАП (как и сети Хопфилда) является
небольшая емкость памяти. Так, например, число запоминаемых ассоциа-
ций не может превышать числа нейронов в меньшем слое. Если все поро-
говые значения
j
Θ будут нулевыми, то оценка еще ухудшается: размер за-
поминаемой выборки не должен превосходить
l
l
2
log2
, где −
l
число ней-
Нейроны в обоих слоях сети ДАП функционируют аналогично ней- ронам сети Хопфилда. Этот процесс может быть выражен следующим об- разом: n y Nj +1 = f (∑ xiN w ji ), j = 1, m , i =1 m xiN +1 = f ( ∑ y Nj +1wij ), i = 1, n , j =1 ⎧− 1, s < Θ j ; ⎪⎪ где f ( s ) = ⎨1, s > Θ j ; ⎪ pred ⎪⎩ f ( s ), s = Θ j , f pred (s ) значение функции активации данного нейрона на предыдущем шаге. Пусть задана обучающая выборка ассоциированных образов ( X , Y k ), k = 1, K . Весовая матрица сети ДАП вычисляется как сумма про- k изведений всех векторных пар обучающего набора: K wij = ∑ xik y kj , i = 1, n, j = 1, m . k =1 В отличие от сети Хопфилда, весовая матрица в сети ДАП не квад- ратная, что во многих случаях позволяет оптимизировать вычислительные затраты, необходимые для функционирования сети. Вернемся к примеру с запоминанием букв А, В, С, рассмотренному в п. 7.1. Сеть Хопфилда в этом примере имела 10 × 7 = 70 входов и требовала для своей работы хра- нения весовой матрицы размером 70 × 70, содержащей 4900 элементов. Ассоциируем с каждым из входных образов сети двухбитовый вектор: символ A будет связан с вектором (1,1,1), символ B с вектором (1, 1,1), символ C с вектором (1,1,1). Таким образом, например, при подаче на вход искаженной версии буквы A, сеть после стабилизации должна выда- вать образ (1,1, 1). Так как ассоциированные пары заранее известны, это приведет к правильному распознаванию зашумленного входа. Но для ра- боты такой сети требуется хранение всего 70 × 3 = 210 элементов весовой матрицы. Основным недостатком сети ДАП (как и сети Хопфилда) является небольшая емкость памяти. Так, например, число запоминаемых ассоциа- ций не может превышать числа нейронов в меньшем слое. Если все поро- говые значения Θ j будут нулевыми, то оценка еще ухудшается: размер за- l поминаемой выборки не должен превосходить , где l − число ней- 2 log 2 l 53
Страницы
- « первая
- ‹ предыдущая
- …
- 51
- 52
- 53
- 54
- 55
- …
- следующая ›
- последняя »