Интеллектуальные информационные системы. Макаренко С.И. - 159 стр.

UptoLike

Составители: 

158
Вместо переменных {0, 1} используются переменные {-1, 1}, и
полагается
0
θ
=
, так что динамическая система в компонентах имеет вид:
1
( 1) ( )
sgn , 1..
n
i j
j
ij
x t t
W x i n
=
+ = =
(16.1)
где
1
1
,
l l
ij i j
l
W n s s
=
=
,
1
( ,... )
l
l l T
n
s s s
=
-
эталоны
памяти
,
n
число
нейронов
сети
,
L
число
эталонов
.
Емкость
памяти
r
=
L
/
n
при
больших
n
удается
асимптотически
оценить
с
помощью
центральной
предельной
теоремы
:
max
.
/ 4log 0.138
r n n
=
Ключавым
моментом
оказалась
идея
введения
энергии
сети
(J. Hopfield,
1982):
0.5 .
n
ij i j
ij
H W x x
=
.
Энергия
является
функцией
Ляпунова
для
динамической
системы
(16.1):
H
убывает
в
силу
динамики
сети
.
Кроме
того
,
она
соответствует
Гамильтониану
в
статистической
механике
физических
систем
,
целевой
функции
в
теории
оптимизации
и
функции
приспособленности
в
эволюционной
биологии
.
Векторы
памяти
,
являющиеся
устойчивыми
аттракторами
динамики
,
располагаются
в
локальных
минимумах
«
энергетической
»
поверхности
.
Сеть
Хопфилда
способна
распознавать
объекты
при
неполных
и
зашумленных
исходных
данных
,
однако
не
может
этого
сделать
,
если
изображение
смещено
или
повернуто
относительно
его
исходного
состояния
,
представленного
в
обучающей
выборке
.
При
распознавании
«
работа
»
сети
состоит
в
релаксации
сети
из
некоторого
заданного
начального
состояния
х
0
в
одно
из
состояний
устойчивого
равновесия
.
Если
состояние
х
0
представляет
искаженную
версию
одного
из
эталонов
памяти
и
точка
х
0
фазового
пространства
динамической
системы
находится
в
бассейне
притяжения
устойчивого
аттрактора
S
l
,
то
сеть
релаксирует
в
состояние
равновесия
S
l
,
что
и
соответствует
«
воспроизведению
»
эталона
.
Важной
особенностью
сети
Хопфилда
является
существование
множества
дополнительных
устойчивых
аттракторов
динамики
помимо
S
1
S
L
(
так
называемая
«
посторонняя
»
память
,
или
spurious states).
Свойства
посторонней
памяти
достаточно
хорошо
изучены
.
В
частности
,
имеются
строгие
результаты
,
свидетельствующие
об
экспоненциальном
росте
числа
«
посторонних
»
аттракторов
с
ростом
L
.
    Вместо переменных {0, 1} используются переменные {-1, 1}, и
полагается θ = 0 , так что динамическая система в компонентах имеет вид:
                       n            
                          ∑
     xi (t + 1) = sgn  Wij x j (t )  ,
                       j =1         
                                            i = 1..n
                                                                                  (16.1)
               L
   Wij = n−1∑ sil slj ,    l
                          s = ( s1l ,...snl )T
где              ,
              l =1                               - эталоны памяти, n – число нейронов сети,
L – число эталонов.
     Емкость памяти r = L/n при больших n удается асимптотически оценить
с помощью центральной предельной теоремы:
     rmax = n / 4log n ≈ 0.138 .
    Ключавым моментом оказалась идея введения энергии сети (J. Hopfield,
1982):
                     n
     H = −0.5 ⋅ ∑Wij xi x j .
                     ij            .
     Энергия является функцией Ляпунова для динамической системы (16.1):
H убывает в силу динамики сети. Кроме того, она соответствует
Гамильтониану в статистической механике физических систем, целевой
функции в теории оптимизации и функции приспособленности в
эволюционной биологии. Векторы памяти, являющиеся устойчивыми
аттракторами динамики, располагаются в локальных минимумах
«энергетической» поверхности.
    Сеть Хопфилда способна распознавать объекты при неполных и
зашумленных исходных данных, однако не может этого сделать, если
изображение смещено или повернуто относительно его исходного состояния,
представленного в обучающей выборке.
     При распознавании «работа» сети состоит в релаксации сети из
некоторого заданного начального состояния х0 в одно из состояний
устойчивого равновесия. Если состояние х0 представляет искаженную
версию одного из эталонов памяти и точка х0 фазового пространства
динамической системы находится в бассейне притяжения устойчивого
аттрактора Sl, то сеть релаксирует в состояние равновесия Sl, что и
соответствует «воспроизведению» эталона.
     Важной особенностью сети Хопфилда является существование
множества дополнительных устойчивых аттракторов динамики помимо
S1… SL (так называемая «посторонняя» память, или spurious states). Свойства
посторонней памяти достаточно хорошо изучены. В частности, имеются
строгие результаты, свидетельствующие об экспоненциальном росте числа
«посторонних» аттракторов с ростом L.


                                                   158