Нейросетевые технологии. Каширина И.Л. - 53 стр.

UptoLike

Составители: 

53
Нейроны в обоих слоях сети ДАП функционируют аналогично ней-
ронам сети Хопфилда. Этот процесс может быть выражен следующим об-
разом:
mjwxfy
n
i
ji
N
i
N
j
,1,)(
1
1
==
=
+
,
=
++
==
m
j
ij
N
j
N
i
niwyfx
1
11
,1),( ,
где
Θ=
Θ>
Θ<
=
,),(
;,1
;,1
)(
j
pred
j
j
ssf
s
s
sf
)(sf
pred
значение функции активации данного нейрона на предыдущем
шаге.
Пусть задана обучающая выборка ассоциированных образов
KkYX
kk
,1),,( = . Весовая матрица сети ДАП вычисляется как сумма про-
изведений всех векторных пар обучающего набора:
mjniyxw
K
k
k
j
k
iij
,1,,1,
1
===
=
.
В отличие от сети Хопфилда, весовая матрица в сети ДАП не квад-
ратная, что во многих случаях позволяет оптимизировать вычислительные
затраты, необходимые для функционирования сети. Вернемся к примеру с
запоминанием букв А, В, С, рассмотренному в п. 7.1. Сеть Хопфилда в
этом примере имела 10 × 7 = 70 входов и требовала для своей работы хра-
нения весовой матрицы размером 70 × 70, содержащей 4900 элементов.
Ассоциируем с каждым из входных образов сети двухбитовый вектор:
символ A будет связан с вектором (1,–1,–1), символ B с вектором (–1, 1,–1),
символ C с вектором (–1,–1,1). Таким образом, например, при подаче на
вход искаженной версии буквы A, сеть после стабилизации должна выда-
вать образ (1,–1, –1). Так как ассоциированные пары заранее известны, это
приведет
к правильному распознаванию зашумленного входа. Но для ра-
боты такой сети требуется хранение всего 70 × 3 = 210 элементов весовой
матрицы.
Основным недостатком сети ДАП (как и сети Хопфилда) является
небольшая емкость памяти. Так, например, число запоминаемых ассоциа-
ций не может превышать числа нейронов в меньшем слое. Если все поро-
говые значения
j
Θ будут нулевыми, то оценка еще ухудшается: размер за-
поминаемой выборки не должен превосходить
l
l
2
log2
, где
l
число ней-
     Нейроны в обоих слоях сети ДАП функционируют аналогично ней-
ронам сети Хопфилда. Этот процесс может быть выражен следующим об-
разом:
                                               n
                               y Nj +1   = f (∑ xiN w ji ),   j = 1, m ,
                                              i =1
                                               m
                              xiN +1 = f ( ∑ y Nj +1wij ), i = 1, n ,
                                              j =1

              ⎧− 1, s < Θ j ;
              ⎪⎪
где f ( s ) = ⎨1, s > Θ j ;
               ⎪ pred
               ⎪⎩ f   ( s ), s = Θ j ,
 f pred (s ) – значение функции активации данного нейрона на предыдущем
шаге.
         Пусть задана обучающая выборка ассоциированных образов
( X , Y k ), k = 1, K . Весовая матрица сети ДАП вычисляется как сумма про-
    k

изведений            всех          векторных пар    обучающего      набора:
       K
wij = ∑ xik y kj , i = 1, n, j = 1, m .
      k =1
      В отличие от сети Хопфилда, весовая матрица в сети ДАП не квад-
ратная, что во многих случаях позволяет оптимизировать вычислительные
затраты, необходимые для функционирования сети. Вернемся к примеру с
запоминанием букв А, В, С, рассмотренному в п. 7.1. Сеть Хопфилда в
этом примере имела 10 × 7 = 70 входов и требовала для своей работы хра-
нения весовой матрицы размером 70 × 70, содержащей 4900 элементов.
Ассоциируем с каждым из входных образов сети двухбитовый вектор:
символ A будет связан с вектором (1,–1,–1), символ B с вектором (–1, 1,–1),
символ C с вектором (–1,–1,1). Таким образом, например, при подаче на
вход искаженной версии буквы A, сеть после стабилизации должна выда-
вать образ (1,–1, –1). Так как ассоциированные пары заранее известны, это
приведет к правильному распознаванию зашумленного входа. Но для ра-
боты такой сети требуется хранение всего 70 × 3 = 210 элементов весовой
матрицы.
      Основным недостатком сети ДАП (как и сети Хопфилда) является
небольшая емкость памяти. Так, например, число запоминаемых ассоциа-
ций не может превышать числа нейронов в меньшем слое. Если все поро-
говые значения Θ j будут нулевыми, то оценка еще ухудшается: размер за-
                                                                      l
поминаемой выборки не должен превосходить                                   , где l − число ней-
                                                                  2 log 2 l

                                                     53