ВУЗ:
Составители:
47
Эти рассуждения показывают, что любое изменение состояния ней-
рона либо уменьшит функцию энергии, либо оставит ее без изменения. Так
как функция энергии задана на конечном множестве (
}1,1{−∈
∀
i
y ), то она
ограничена снизу и вследствие непрерывного стремления к уменьшению в
конце концов должна достигнуть минимума и прекратить изменение. По
определению такая сеть является устойчивой.
Поверхность функции энергии E в пространстве состояний имеет
весьма сложную форму с большим количеством локальных минимумов.
Стационарные состояния, отвечающие минимумам, могут интерпретиро-
ваться, как образы
памяти нейронной сети. Сходимость к такому образу
соответствует процессу извлечения из памяти. При произвольной матрице
связей W образы также произвольны. Для записи в память сети какой-либо
конкретной информации требуется определенное значение весов W, кото-
рое может получаться в процессе обучения.
Правило обучения Хебба
Метод обучения для сети Хопфилда опирается на исследования До-
нальда Хебба, реализовавшего простой механизм обучения, названный
правилом Хебба. Рассмотрим его подробно.
Пусть задана обучающая выборка образов
KkX
k
,1, = . Требуется
построить такую матрицу связей W, что соответствующая нейронная сеть
будет иметь в качестве стационарных состояний образы обучающей вы-
борки (значения порогов нейронов
j
Θ
положим равными нулю). В случае
одного обучающего образа
}1,1{),,...,(
1
−
∈
=
in
xxxX , правило Хебба приво-
дит к матрице: ,, jixxw
jiij
≠=
.0
=
ii
w
Покажем, что состояние Y=X явля-
ется стационарным для сети Хопфилда с данной матрицей W. Действи-
тельно, значение функции энергии в состоянии X является для нее гло-
бальным минимумом:
∑∑∑∑∑∑
======
−=−=−=−=
n
i
n
j
jij
n
i
n
j
ijij
n
i
n
j
iij
nxxxxxxxxwXE
11
222
1111
2
1
2
1
2
1
2
1
)(,
то есть сеть прекратит изменения, достигнув состояния X.
Для запоминания
K
образов применяется итерационный процесс:
Kkxxww
k
j
k
i
k
ij
k
ij
,1,
1
=+=
−
(считаем, что 0
0
=
ij
w ). Этот процесс приводит к
полной матрице связей:
∑
=
=
K
k
k
j
k
iij
xxw
1
.
Сеть Хопфилда нашла широкое применение в системах ассоциатив-
ной памяти, позволяющих восстанавливать идеальный образ по имеющей-
ся неполной или зашумленной его версии.
Пример. В качестве примера рассмотрим сеть, состоящую из 70 нейронов,
упорядоченных в матрицу 10 × 7.
Эти рассуждения показывают, что любое изменение состояния ней-
рона либо уменьшит функцию энергии, либо оставит ее без изменения. Так
как функция энергии задана на конечном множестве ( ∀yi ∈ {−1,1} ), то она
ограничена снизу и вследствие непрерывного стремления к уменьшению в
конце концов должна достигнуть минимума и прекратить изменение. По
определению такая сеть является устойчивой.
Поверхность функции энергии E в пространстве состояний имеет
весьма сложную форму с большим количеством локальных минимумов.
Стационарные состояния, отвечающие минимумам, могут интерпретиро-
ваться, как образы памяти нейронной сети. Сходимость к такому образу
соответствует процессу извлечения из памяти. При произвольной матрице
связей W образы также произвольны. Для записи в память сети какой-либо
конкретной информации требуется определенное значение весов W, кото-
рое может получаться в процессе обучения.
Правило обучения Хебба
Метод обучения для сети Хопфилда опирается на исследования До-
нальда Хебба, реализовавшего простой механизм обучения, названный
правилом Хебба. Рассмотрим его подробно.
Пусть задана обучающая выборка образов X k , k = 1, K . Требуется
построить такую матрицу связей W, что соответствующая нейронная сеть
будет иметь в качестве стационарных состояний образы обучающей вы-
борки (значения порогов нейронов Θ j положим равными нулю). В случае
одного обучающего образа X = ( x1 ,..., xn ), xi ∈ {−1,1} , правило Хебба приво-
дит к матрице: wij = xi x j , i ≠ j , wii = 0. Покажем, что состояние Y=X явля-
ется стационарным для сети Хопфилда с данной матрицей W. Действи-
тельно, значение функции энергии в состоянии X является для нее гло-
бальным минимумом:
1 n n 1 n n 1 n n 2 2 1
E ( X ) = − ∑ ∑ wij xi x j = − ∑ ∑ xi x j xi x j = − ∑ ∑ xi x j = − n 2 ,
2 i =1 j =1 2 i =1 j =1 2 i =1 j =1 2
то есть сеть прекратит изменения, достигнув состояния X.
Для запоминания K образов применяется итерационный процесс:
wijk = wijk −1 + xik x kj , k = 1, K (считаем, что wij0 = 0 ). Этот процесс приводит к
K
полной матрице связей: wij = ∑ xik x kj .
k =1
Сеть Хопфилда нашла широкое применение в системах ассоциатив-
ной памяти, позволяющих восстанавливать идеальный образ по имеющей-
ся неполной или зашумленной его версии.
Пример. В качестве примера рассмотрим сеть, состоящую из 70 нейронов,
упорядоченных в матрицу 10 × 7.
47
Страницы
- « первая
- ‹ предыдущая
- …
- 45
- 46
- 47
- 48
- 49
- …
- следующая ›
- последняя »
