ВУЗ:
Составители:
37
Рис . 21. Сеть Хопфилда генерирует ложный образ.
Опыт практического применения сетей Хопфилда показывает, что эти ней-
росетевые системы способны распознавать практически полностью зашумленные
образы и могут ассоциативно узнавать образ по его небольшому фрагменту. Од-
нако особенностью работы данной сети является возможная генерация ложных
образов . Ложный образ является устойчивым локальным минимумом функции
энергии, но не соответствует никакому идеальному образу . На рис. 21 показано,
что сеть не смогла различить, какому из идеальных образов (B или C) соответст-
вует поданное на вход зашумленное изображение, и выдала в качестве результата
нечто собирательное .
Ложные образы являются "неверными" решениями, и поэтому для исклю-
чения их из памяти сети на этапе ее тестирования применяется механизм “разобу-
чения” . Суть их заключается в следующем . Если обученная сеть на этапе тестиро-
вания сошлась к ложному образу ),...,(
1 n
zzZ
=
, те ее весовые коэффициенты пе-
ресчитываются по формуле:
,'
jiijij
zzww ε −=
где
−
ε
малое число (
1
.
0
0
<
<
ε
) что
гарантирует незначительное ухудшение полезной памяти. После нескольких про-
цедур разобучения свойства сети улучшаются. Это объясняется тем , что состоя -
ниям ложной памяти соответствуют гораздо более “мелкие” энергетические ми-
нимумы, чем состояниям , соответствующим запоминаемым образом .
Другим существенным недостатком сетей Хопфилда является небольшая
емкость памяти. Многочисленные исследования показывают , что нейронная сеть,
обученная по правилу Хебба , может в среднем , при размерах сети
n
, хранить не
более чем 0.14
n
различных образов . Для некоторого увеличения емкости памяти
сети используется специальный алгоритм ортогонализации образов .
Процедура ортогонализации образов
Два различных запоминаемых векторных образа сети
lk
XX ,
)
(
l
k
≠
назы -
ваются ортогональными, если их скалярное произведение равно нулю:
0
1
=
∑
=
l
j
n
j
k
j
xx . Если все запоминаемые образы сети
KkX
k
,1, =
попарно ортого-
нальны , емкость памяти сети Хопфилда увеличивается до
n
, то есть сеть может
запомнить количество образов , не превосходящее число нейронов в ней. На этом
свойстве основано улучшение правила Хебба : перед запоминанием в нейронной
сети исходные образы следует ортогонализовать. Процедура расчета весовых ко-
эффициентов в этом случае имеет следующий вид:
Шаг 1. Вычисляются элементы матрицы KlkbB
kl
,1,),( == :
37 Рис. 21. Сеть Хопфилда генерирует ложный образ. Опыт практического применения сетей Хопфилда показывает, что эти ней- росетевые системы способны распознавать практически полностью зашумленные образы и могут ассоциативно узнавать образ по его небольшому фрагменту. Од- нако особенностью работы данной сети является возможная генерация ложных образов. Ложный образ является устойчивым локальным минимумом функции энергии, но не соответствует никакому идеальному образу. На рис. 21 показано, что сеть не смогла различить, какому из идеальных образов (B или C) соответст- вует поданное на вход зашумленное изображение, и выдала в качестве результата нечто собирательное. Ложные образы являются "неверными" решениями, и поэтому для исклю- чения их из памяти сети на этапе ее тестирования применяется механизм “разобу- чения”. Суть их заключается в следующем. Если обученная сеть на этапе тестиро- вания сошлась к ложному образу Z =( z1 ,..., zn ) , те ее весовые коэффициенты пе- ресчитываются по формуле: wij ' =wij −ε zi z j , где ε −малое число ( 0 <ε <0.1 ) что гарантирует незначительное ухудшение полезной памяти. После нескольких про- цедур разобучения свойства сети улучшаются. Это объясняется тем, что состоя- ниям ложной памяти соответствуют гораздо более “мелкие” энергетические ми- нимумы, чем состояниям, соответствующим запоминаемым образом. Другим существенным недостатком сетей Хопфилда является небольшая емкость памяти. Многочисленные исследования показывают, что нейронная сеть, обученная по правилу Хебба, может в среднем, при размерах сети n , хранить не более чем 0.14 n различных образов. Для некоторого увеличения емкости памяти сети используется специальный алгоритм ортогонализации образов. Процедура ортогонализации образов Два различных запоминаемых векторных образа сети X k , X l ( k ≠l ) назы- ваются ортогональными, если их скалярное произведение равно нулю: n ∑ x kj xlj =0 . Если все запоминаемые образы сети X k , k =1, K попарно ортого- j =1 нальны, емкость памяти сети Хопфилда увеличивается до n , то есть сеть может запомнить количество образов, не превосходящее число нейронов в ней. На этом свойстве основано улучшение правила Хебба: перед запоминанием в нейронной сети исходные образы следует ортогонализовать. Процедура расчета весовых ко- эффициентов в этом случае имеет следующий вид: Шаг 1. Вычисляются элементы матрицы B =(bkl ), k , l =1, K :
Страницы
- « первая
- ‹ предыдущая
- …
- 35
- 36
- 37
- 38
- 39
- …
- следующая ›
- последняя »