ВУЗ:
Составители:
14
Лабораторная работа № 3
Обучение линейной сети.
Обучающее правило наименьших квад-
ратов
Цель работы: изучение алгоритма настройки параметров линей-
ных нейронных сетей с помощью процедуры обучения train
в систе-
ме MATLAB.
Общие сведения
Обучающее правило наименьших квадратов
Для линейной нейронной сети используется рекуррентное обу-
чающее правило наименьших квадратов, которое является наиболее
мощным, чем обучающее правило персептрона. Правило наимень-
ших квадратов, или правило обучения WH (Уидроу–Хоффа), мини-
мизирует среднее значение суммы квадратов ошибок обучения.
Процесс обучения нейронной сети состоит в следующем. Авторы
алгоритма предположили, что можно оценивать полную среднюю
квадратичную погрешность, используя среднюю квадратичную по-
грешность на каждой итерации. Сформируем частную производную
по весам и смещению от квадрата погрешности на k-й итерации:
⎪
⎪
⎩
⎪
⎪
⎨
⎧
∂
∂
=
∂
∂
=
∂
∂
=
∂
∂
.
)(
)(2
)(
;,...,1,
)(
)(2
)(
2
,1,1
2
b
ke
ke
b
ke
Rj
w
ke
ke
w
ke
jj
(1)
Подставляя выражение для ошибки в форме
⎟
⎟
⎠
⎞
⎜
⎜
⎝
⎛
+−=
∑
=
R
j
ii
bkpwktke
1
,1
)()()( , (2)
получим
Лабораторная работа № 3 Обучение линейной сети. Обучающее правило наименьших квад- ратов Цель работы: изучение алгоритма настройки параметров линей- ных нейронных сетей с помощью процедуры обучения train в систе- ме MATLAB. Общие сведения Обучающее правило наименьших квадратов Для линейной нейронной сети используется рекуррентное обу- чающее правило наименьших квадратов, которое является наиболее мощным, чем обучающее правило персептрона. Правило наимень- ших квадратов, или правило обучения WH (Уидроу–Хоффа), мини- мизирует среднее значение суммы квадратов ошибок обучения. Процесс обучения нейронной сети состоит в следующем. Авторы алгоритма предположили, что можно оценивать полную среднюю квадратичную погрешность, используя среднюю квадратичную по- грешность на каждой итерации. Сформируем частную производную по весам и смещению от квадрата погрешности на k-й итерации: ⎧ ∂e 2 (k ) ∂e(k ) ⎪ = 2e(k ) , j = 1,..., R; ⎪ ∂w1, j ∂w1, j ⎨ 2 (1) ⎪ ∂e (k ) ∂e(k ) ⎪⎩ ∂b = 2e(k ) ∂b . Подставляя выражение для ошибки в форме ⎛ R ⎞ e(k ) = t (k ) − ⎜ ∑ w1,i pi (k ) + b ⎟ , (2) ⎜ j =1 ⎟ ⎝ ⎠ получим 14
Страницы
- « первая
- ‹ предыдущая
- …
- 12
- 13
- 14
- 15
- 16
- …
- следующая ›
- последняя »