ВУЗ:
Составители:
35
jjjjji
ji
ij
ysyywE
∆
Θ
−
−
=
∆
Θ
+
−
=
∆
∑
≠
)()(
( здесь мы воспользовались симметричностью связей и тем , что w
ii
=0). Допустим ,
что величина
j
s
больше порога
j
Θ
. Тогда выражение в скобках будет положи-
тельным , а из вида активационной функции следует, что новый выход нейрона j
должен быть 1, то есть измениться в положительную сторону (или остаться без
изменения). Это значит, что
0
≥
∆
j
y
и тогда
0
≤
∆
E
. Следовательно, энергия сети
либо уменьшится, либо останется без изменения. Далее, допустим , что величина
j
s меньше порога . Тогда новое значение
j
y =-1 и величина
j
y
∆
может быть толь-
ко отрицательной или нулем . Следовательно, опять энергия должна уменьшиться
или остаться без изменения. Если величина
j
s
равна порогу
j
Θ
,
j
y
∆
равна нулю
и энергия остается без изменения.
Эти рассуждения показывают, что любое изменение состояния нейрона ли-
бо уменьшит функцию энергии, либо оставит ее без изменения. Так как функция
энергии задана на конечном множестве (
}1,1{
−
∈
∀
i
y
), то она ограничена снизу и
вследствие непрерывного стремления к уменьшению в конце концов должна дос -
тигнуть минимума и прекратить изменение. По определению такая сеть является
устойчивой .
Поверхность функции энергии E в пространстве состояний имеет весьма
сложную форму с большим количеством локальных минимумов . Стационарные
состояния, отвечающие минимумам , могут интерпретироваться, как образы памя-
ти нейронной сети. Сходимость к такому образу соответствует процессу извлече-
ния из памяти. При произвольной матрице связей W образы также произвольны .
Для записи в память сети какой - либо конкретной информации требуется опреде-
ленное значение весов W , которое может получаться в процессе обучения.
Правило обучения Хебба
Метод обучения для сети Хопфилда опирается на исследования Дональда
Хебба , реализовавшего простой механизм обучения, названный правилом Хебба.
Рассмотрим его подробно.
Пусть задана обучающая выборка образов KkX
k
,1, = . Требуется построить
матрицу связей W, такую, что соответствующая нейронная сеть будет иметь в ка -
честве стационарных состояний образы обучающей выборки (значения порогов
нейронов
j
Θ
положим равными нулю). В случае одного обучающего образа
}1,1{),,...,(
1
−
∈
=
in
xxxX
, правило Хебба приводит к матрице: ,, jixxw
jiij
≠
=
.0
=
ii
w Покажем , что состояние Y=X является стационарным для сети Хопфилда с
данной матрицей W. Действительно, значение функции энергии в состоянии X
является для нее глобальным минимумом :
∑∑∑∑∑∑
======
−=−=−=−=
n
i
n
j
jij
n
i
n
j
ijij
n
i
n
j
iij
nxxxxxxxxwXE
11
222
1111
2
1
2
1
2
1
2
1
)( ,
то есть сеть прекратит изменения, достигнув состояния X.
35 ∆E =(−∑ wij yi +Θ j )∆y j =−( s j −Θ j )∆y j i ≠j (здесь мы воспользовались симметричностью связей и тем, что wii=0). Допустим, что величина s j больше порога Θ j . Тогда выражение в скобках будет положи- тельным, а из вида активационной функции следует, что новый выход нейрона j должен быть 1, то есть измениться в положительную сторону (или остаться без изменения). Это значит, что ∆y j ≥0 и тогда ∆E ≤0 . Следовательно, энергия сети либо уменьшится, либо останется без изменения. Далее, допустим, что величина s j меньше порога. Тогда новое значение y j =-1 и величина ∆y j может быть толь- ко отрицательной или нулем. Следовательно, опять энергия должна уменьшиться или остаться без изменения. Если величина s j равна порогу Θ j , ∆y j равна нулю и энергия остается без изменения. Эти рассуждения показывают, что любое изменение состояния нейрона ли- бо уменьшит функцию энергии, либо оставит ее без изменения. Так как функция энергии задана на конечном множестве ( ∀yi ∈{−1,1} ), то она ограничена снизу и вследствие непрерывного стремления к уменьшению в конце концов должна дос- тигнуть минимума и прекратить изменение. По определению такая сеть является устойчивой. Поверхность функции энергии E в пространстве состояний имеет весьма сложную форму с большим количеством локальных минимумов. Стационарные состояния, отвечающие минимумам, могут интерпретироваться, как образы памя- ти нейронной сети. Сходимость к такому образу соответствует процессу извлече- ния из памяти. При произвольной матрице связей W образы также произвольны. Для записи в память сети какой-либо конкретной информации требуется опреде- ленное значение весов W, которое может получаться в процессе обучения. Правило обучения Хебба Метод обучения для сети Хопфилда опирается на исследования Дональда Хебба, реализовавшего простой механизм обучения, названный правилом Хебба. Рассмотрим его подробно. Пусть задана обучающая выборка образов X k , k =1, K . Требуется построить матрицу связей W, такую, что соответствующая нейронная сеть будет иметь в ка- честве стационарных состояний образы обучающей выборки (значения порогов нейронов Θ j положим равными нулю). В случае одного обучающего образа X =( x1 ,..., xn ), xi ∈{−1,1} , правило Хебба приводит к матрице: wij =xi x j , i ≠ j , wii =0. Покажем, что состояние Y=X является стационарным для сети Хопфилда с данной матрицей W. Действительно, значение функции энергии в состоянии X является для нее глобальным минимумом: 1 n n 1 n n 1 n n 1 E ( X ) =− ∑ ∑ wij xi x j =− ∑ ∑ xi x j xi x j =− ∑ ∑ xi2 x 2j =− n 2 , 2 i =1 j =1 2 i =1 j =1 2 i =1 j =1 2 то есть сеть прекратит изменения, достигнув состояния X.
Страницы
- « первая
- ‹ предыдущая
- …
- 33
- 34
- 35
- 36
- 37
- …
- следующая ›
- последняя »