ВУЗ:
Составители:
15
⎪
⎪
⎩
⎪
⎪
⎨
⎧
−=
∂
∂
−=
∂
∂
.
b
ke
kp
w
ke
j
,j
1
)(
);(
)(
1
(3)
Здесь p
j
(k) – j-й элемент вектора входа на k-й итерации. Эти соот-
ношения лежат в основе обучающего алгоритма WH
( ) () () ()
()() ()
⎪
⎩
⎪
⎨
⎧
+=+
+=+
. kαekbkb
kkekk
21
;1
т
pww
(4)
Результат может быть обобщен на случай многих нейронов и
представлен в следующей матричной форме:
( ) () () ()
( ) () ()
⎪
⎩
⎪
⎨
⎧
+=+
+=+
.2α1
;1
т
kkk
kkkk
ebb
peWW
(5)
Здесь ошибка
e и смещение b – векторы; α – параметр скорости
обучения.
При больших значениях α обучение происходит быстро, однако
при очень больших значениях может приводить к неустойчивости.
Чтобы гарантировать устойчивость процесса обучения, параметр
скорости обучения не должен превышать величины 1/max(|λ|), где
λ
– собственное значение матрицы корреляций p*p
Т
векторов входа.
Используя правило обучения WH и метод наискорейшего спуска,
всегда можно обучить сеть так, чтобы погрешность обучения была
минимальной.
Функция learnwh предназначена для настройки параметров ли-
нейной сети и реализует следующее обучающее правило:
⎪
⎩
⎪
⎨
⎧
=
=
∑
=
,*
;**
1
т
Q
i
i
elr
lr
bd
pedw
(6)
где lr – параметр скорости обучения. Максимальное значение пара-
метра скорости обучения, которое гарантирует устойчивость про-
цедуры настройки, вычисляется с помощью функции maxlinlr.
⎧ ∂e(k ) ⎪⎪ ∂w = − p j (k ); ⎨ 1,j (3) ⎪ ∂e(k ) = −1. ⎪⎩ ∂b Здесь pj(k) – j-й элемент вектора входа на k-й итерации. Эти соот- ношения лежат в основе обучающего алгоритма WH ⎧⎪w (k + 1) = w(k ) + e(k )p т (k ) ; ⎨ (4) ⎪⎩ b(k + 1) = b(k ) + 2αe(k ) . Результат может быть обобщен на случай многих нейронов и представлен в следующей матричной форме: ⎧⎪W(k + 1) = W(k ) + e(k )p т (k ) ; ⎨ (5) ⎪⎩ b(k + 1) = b(k ) + 2α e(k ) . Здесь ошибка e и смещение b – векторы; α – параметр скорости обучения. При больших значениях α обучение происходит быстро, однако при очень больших значениях может приводить к неустойчивости. Чтобы гарантировать устойчивость процесса обучения, параметр скорости обучения не должен превышать величины 1/max(|λ|), где λ – собственное значение матрицы корреляций p*pТ векторов входа. Используя правило обучения WH и метод наискорейшего спуска, всегда можно обучить сеть так, чтобы погрешность обучения была минимальной. Функция learnwh предназначена для настройки параметров ли- нейной сети и реализует следующее обучающее правило: ⎧dw = lr * e * p т ; ⎪ Q ⎨ (6) ⎪ d b = lr * ∑ ei , ⎩ i =1 где lr – параметр скорости обучения. Максимальное значение пара- метра скорости обучения, которое гарантирует устойчивость про- цедуры настройки, вычисляется с помощью функции maxlinlr. 15
Страницы
- « первая
- ‹ предыдущая
- …
- 13
- 14
- 15
- 16
- 17
- …
- следующая ›
- последняя »