ВУЗ:
Составители:
15
⎪
⎪
⎩
⎪
⎪
⎨
⎧
−=
∂
∂
−=
∂
∂
.
b
ke
kp
w
ke
j
,j
1
)(
);(
)(
1
(3)
Здесь p
j
(k) – j-й элемент вектора входа на k-й итерации. Эти соот-
ношения лежат в основе обучающего алгоритма WH
( ) () () ()
()() ()
⎪
⎩
⎪
⎨
⎧
+=+
+=+
. kαekbkb
kkekk
21
;1
т
pww
(4)
Результат может быть обобщен на случай многих нейронов и
представлен в следующей матричной форме:
( ) () () ()
( ) () ()
⎪
⎩
⎪
⎨
⎧
+=+
+=+
.2α1
;1
т
kkk
kkkk
ebb
peWW
(5)
Здесь ошибка
e и смещение b – векторы; α – параметр скорости
обучения.
При больших значениях α обучение происходит быстро, однако
при очень больших значениях может приводить к неустойчивости.
Чтобы гарантировать устойчивость процесса обучения, параметр
скорости обучения не должен превышать величины 1/max(|λ|), где
λ
– собственное значение матрицы корреляций p*p
Т
векторов входа.
Используя правило обучения WH и метод наискорейшего спуска,
всегда можно обучить сеть так, чтобы погрешность обучения была
минимальной.
Функция learnwh предназначена для настройки параметров ли-
нейной сети и реализует следующее обучающее правило:
⎪
⎩
⎪
⎨
⎧
=
=
∑
=
,*
;**
1
т
Q
i
i
elr
lr
bd
pedw
(6)
где lr – параметр скорости обучения. Максимальное значение пара-
метра скорости обучения, которое гарантирует устойчивость про-
цедуры настройки, вычисляется с помощью функции maxlinlr.
⎧ ∂e(k )
⎪⎪ ∂w = − p j (k );
⎨ 1,j (3)
⎪ ∂e(k ) = −1.
⎪⎩ ∂b
Здесь pj(k) – j-й элемент вектора входа на k-й итерации. Эти соот-
ношения лежат в основе обучающего алгоритма WH
⎧⎪w (k + 1) = w(k ) + e(k )p т (k ) ;
⎨ (4)
⎪⎩ b(k + 1) = b(k ) + 2αe(k ) .
Результат может быть обобщен на случай многих нейронов и
представлен в следующей матричной форме:
⎧⎪W(k + 1) = W(k ) + e(k )p т (k ) ;
⎨ (5)
⎪⎩ b(k + 1) = b(k ) + 2α e(k ) .
Здесь ошибка e и смещение b – векторы; α – параметр скорости
обучения.
При больших значениях α обучение происходит быстро, однако
при очень больших значениях может приводить к неустойчивости.
Чтобы гарантировать устойчивость процесса обучения, параметр
скорости обучения не должен превышать величины 1/max(|λ|), где
λ – собственное значение матрицы корреляций p*pТ векторов входа.
Используя правило обучения WH и метод наискорейшего спуска,
всегда можно обучить сеть так, чтобы погрешность обучения была
минимальной.
Функция learnwh предназначена для настройки параметров ли-
нейной сети и реализует следующее обучающее правило:
⎧dw = lr * e * p т ;
⎪ Q
⎨ (6)
⎪ d b = lr * ∑ ei ,
⎩ i =1
где lr – параметр скорости обучения. Максимальное значение пара-
метра скорости обучения, которое гарантирует устойчивость про-
цедуры настройки, вычисляется с помощью функции maxlinlr.
15
Страницы
- « первая
- ‹ предыдущая
- …
- 13
- 14
- 15
- 16
- 17
- …
- следующая ›
- последняя »
