ВУЗ:
Составители:
49
зашумленные образы и могут ассоциативно узнавать образ по его неболь-
шому фрагменту. Однако особенностью работы данной сети является воз-
можная генерация ложных образов. Ложный образ является устойчивым
локальным минимумом функции энергии, но не соответствует никакому
идеальному образу. На рис. 21 показано, что сеть не смогла различить, ка-
кому из идеальных образов (B или
C) соответствует поданное на вход за-
шумленное изображение, и выдала в качестве результата нечто собира-
тельное.
Ложные образы являются «неверными» решениями, и поэтому для
исключения их из памяти сети на этапе ее тестирования применяется ме-
ханизм «разобучения». Суть их заключается в следующем. Если обученная
сеть на этапе тестирования сошлась к
ложному образу
),...,(
1 n
zzZ
=
, т.о. ее
весовые коэффициенты пересчитываются по формуле: ,'
jiijij
zzww
ε
−= где
−
ε
малое число (1.00 <<
ε
), что гарантирует незначительное ухудшение
полезной памяти. После нескольких процедур разобучения свойства сети
улучшаются. Это объясняется тем, что состояниям ложной памяти соот-
ветствуют гораздо более «мелкие» энергетические минимумы, чем состоя-
ниям, соответствующим запоминаемым образом.
Другим существенным недостатком сетей Хопфилда является не-
большая емкость памяти. Многочисленные исследования показывают, что
нейронная сеть, обученная
по правилу Хебба, может в среднем, при раз-
мерах сети n , хранить не более чем 0.14 n различных образов. Для некото-
рого увеличения емкости памяти сети используется специальный алгоритм
ортогонализации образов.
Процедура ортогонализации образов
Два различных запоминаемых векторных образа сети
lk
XX , )(
l
k
≠
называются ортогональными, если их скалярное произведение равно нулю:
0
1
=
∑
=
l
j
n
j
k
j
xx
. Если все запоминаемые образы сети KkX
k
,1, = попарно ор-
тогональны, емкость памяти сети Хопфилда увеличивается до n , то есть
сеть может запомнить количество образов, не превосходящее число нейро-
нов в ней. На этом свойстве основано улучшение правила Хебба: перед за-
поминанием в нейронной сети исходные образы следует ортогонализовать.
Процедура расчета весовых коэффициентов в этом случае
имеет следую-
щий вид:
Шаг 1. Вычисляются элементы матрицы KlkbB
kl
,1,),( == :
l
j
n
j
k
jkl
xxb
∑
=
=
1
.
Шаг 2. Определяется матрица
C
, обратная к матрице
B
:
1−
=
B
C .
зашумленные образы и могут ассоциативно узнавать образ по его неболь- шому фрагменту. Однако особенностью работы данной сети является воз- можная генерация ложных образов. Ложный образ является устойчивым локальным минимумом функции энергии, но не соответствует никакому идеальному образу. На рис. 21 показано, что сеть не смогла различить, ка- кому из идеальных образов (B или C) соответствует поданное на вход за- шумленное изображение, и выдала в качестве результата нечто собира- тельное. Ложные образы являются «неверными» решениями, и поэтому для исключения их из памяти сети на этапе ее тестирования применяется ме- ханизм «разобучения». Суть их заключается в следующем. Если обученная сеть на этапе тестирования сошлась к ложному образу Z = ( z1 ,..., zn ) , т.о. ее весовые коэффициенты пересчитываются по формуле: wij ' = wij − ε zi z j , где ε − малое число ( 0 < ε < 0.1 ), что гарантирует незначительное ухудшение полезной памяти. После нескольких процедур разобучения свойства сети улучшаются. Это объясняется тем, что состояниям ложной памяти соот- ветствуют гораздо более «мелкие» энергетические минимумы, чем состоя- ниям, соответствующим запоминаемым образом. Другим существенным недостатком сетей Хопфилда является не- большая емкость памяти. Многочисленные исследования показывают, что нейронная сеть, обученная по правилу Хебба, может в среднем, при раз- мерах сети n , хранить не более чем 0.14 n различных образов. Для некото- рого увеличения емкости памяти сети используется специальный алгоритм ортогонализации образов. Процедура ортогонализации образов Два различных запоминаемых векторных образа сети X k , X l (k ≠ l ) называются ортогональными, если их скалярное произведение равно нулю: n ∑ x kj x lj = 0 . Если все запоминаемые образы сети X k , k = 1, K попарно ор- j =1 тогональны, емкость памяти сети Хопфилда увеличивается до n , то есть сеть может запомнить количество образов, не превосходящее число нейро- нов в ней. На этом свойстве основано улучшение правила Хебба: перед за- поминанием в нейронной сети исходные образы следует ортогонализовать. Процедура расчета весовых коэффициентов в этом случае имеет следую- щий вид: Шаг 1. Вычисляются элементы матрицы B = (bkl ), k , l = 1, K : n bkl = ∑ x kj x lj . j =1 Шаг 2. Определяется матрица C , обратная к матрице B : C = B −1 . 49
Страницы
- « первая
- ‹ предыдущая
- …
- 47
- 48
- 49
- 50
- 51
- …
- следующая ›
- последняя »