Нейросетевые технологии. Каширина И.Л. - 49 стр.

UptoLike

Составители: 

49
зашумленные образы и могут ассоциативно узнавать образ по его неболь-
шому фрагменту. Однако особенностью работы данной сети является воз-
можная генерация ложных образов. Ложный образ является устойчивым
локальным минимумом функции энергии, но не соответствует никакому
идеальному образу. На рис. 21 показано, что сеть не смогла различить, ка-
кому из идеальных образов (B или
C) соответствует поданное на вход за-
шумленное изображение, и выдала в качестве результата нечто собира-
тельное.
Ложные образы являются «неверными» решениями, и поэтому для
исключения их из памяти сети на этапе ее тестирования применяется ме-
ханизм «разобучения». Суть их заключается в следующем. Если обученная
сеть на этапе тестирования сошлась к
ложному образу
),...,(
1 n
zzZ
=
, т.о. ее
весовые коэффициенты пересчитываются по формуле: ,'
jiijij
zzww
ε
= где
ε
малое число (1.00 <<
ε
), что гарантирует незначительное ухудшение
полезной памяти. После нескольких процедур разобучения свойства сети
улучшаются. Это объясняется тем, что состояниям ложной памяти соот-
ветствуют гораздо более «мелкие» энергетические минимумы, чем состоя-
ниям, соответствующим запоминаемым образом.
Другим существенным недостатком сетей Хопфилда является не-
большая емкость памяти. Многочисленные исследования показывают, что
нейронная сеть, обученная
по правилу Хебба, может в среднем, при раз-
мерах сети n , хранить не более чем 0.14 n различных образов. Для некото-
рого увеличения емкости памяти сети используется специальный алгоритм
ортогонализации образов.
Процедура ортогонализации образов
Два различных запоминаемых векторных образа сети
lk
XX , )(
l
k
называются ортогональными, если их скалярное произведение равно нулю:
0
1
=
=
l
j
n
j
k
j
xx
. Если все запоминаемые образы сети KkX
k
,1, = попарно ор-
тогональны, емкость памяти сети Хопфилда увеличивается до n , то есть
сеть может запомнить количество образов, не превосходящее число нейро-
нов в ней. На этом свойстве основано улучшение правила Хебба: перед за-
поминанием в нейронной сети исходные образы следует ортогонализовать.
Процедура расчета весовых коэффициентов в этом случае
имеет следую-
щий вид:
Шаг 1. Вычисляются элементы матрицы KlkbB
kl
,1,),( == :
l
j
n
j
k
jkl
xxb
=
=
1
.
Шаг 2. Определяется матрица
C
, обратная к матрице
B
:
1
=
B
C .
зашумленные образы и могут ассоциативно узнавать образ по его неболь-
шому фрагменту. Однако особенностью работы данной сети является воз-
можная генерация ложных образов. Ложный образ является устойчивым
локальным минимумом функции энергии, но не соответствует никакому
идеальному образу. На рис. 21 показано, что сеть не смогла различить, ка-
кому из идеальных образов (B или C) соответствует поданное на вход за-
шумленное изображение, и выдала в качестве результата нечто собира-
тельное.
      Ложные образы являются «неверными» решениями, и поэтому для
исключения их из памяти сети на этапе ее тестирования применяется ме-
ханизм «разобучения». Суть их заключается в следующем. Если обученная
сеть на этапе тестирования сошлась к ложному образу Z = ( z1 ,..., zn ) , т.о. ее
весовые коэффициенты пересчитываются по формуле: wij ' = wij − ε zi z j , где
ε − малое число ( 0 < ε < 0.1 ), что гарантирует незначительное ухудшение
полезной памяти. После нескольких процедур разобучения свойства сети
улучшаются. Это объясняется тем, что состояниям ложной памяти соот-
ветствуют гораздо более «мелкие» энергетические минимумы, чем состоя-
ниям, соответствующим запоминаемым образом.
      Другим существенным недостатком сетей Хопфилда является не-
большая емкость памяти. Многочисленные исследования показывают, что
нейронная сеть, обученная по правилу Хебба, может в среднем, при раз-
мерах сети n , хранить не более чем 0.14 n различных образов. Для некото-
рого увеличения емкости памяти сети используется специальный алгоритм
ортогонализации образов.

                   Процедура ортогонализации образов
     Два различных запоминаемых векторных образа сети X k , X l (k ≠ l )
называются ортогональными, если их скалярное произведение равно нулю:
 n
∑ x kj x lj = 0 . Если все запоминаемые образы сети    X k , k = 1, K попарно ор-
j =1
тогональны, емкость памяти сети Хопфилда увеличивается до n , то есть
сеть может запомнить количество образов, не превосходящее число нейро-
нов в ней. На этом свойстве основано улучшение правила Хебба: перед за-
поминанием в нейронной сети исходные образы следует ортогонализовать.
Процедура расчета весовых коэффициентов в этом случае имеет следую-
щий вид:
Шаг 1. Вычисляются элементы матрицы B = (bkl ), k , l = 1, K :
                                         n
                                 bkl = ∑ x kj x lj .
                                        j =1

Шаг 2. Определяется матрица C , обратная к матрице B : C = B −1 .
                                        49