Составители:
Рубрика:
56
2.4. Рекуррентный метод наименьших квадратов
Рассмотрим использование метода наименьших квадратов для
обучения линейных сетей.
Как и для персептрона, для линейной сети применяется проце-
дура обучения с учителем, которая использует обучающее множе-
ство из N пар векторов:
{P
1
, Z
1
}, {P
2
, Z
2
}, ..., { P
N
, Z
N
},
где P
i
– входной вектор; Z
i
– заданный выходной вектор.
Пусть A
i
– выход сети для входа P
i
. Тогда функцию ошибки на
k-й итерации можно представить в виде
( )
2
1
1
() .
N
ii
i
Ek Z A
N
=
=-
å
Представим линейный нейрон на k-й итерации в виде, приведен-
ном на рис. 2.15.
В процессе обучения сети требуется найти такие значения ве-
сов и смещений, чтобы значение e было минимальным. Эта задача
разрешима, так как для линейной сети поверхность ошибки как
функция входов имеет единственный минимум. Поэтому функция
ошибки уменьшается в направлении, обратном ее градиенту:
( )
2
11 1
1
1 , 1
,, ,
,
()
( ) () , ,
jj j
j
ek
w wk wk j R
w
∆α
¶
= + - =- =
¶
Рис. 2.15. Обучение линейного нейрона
w
1,1
w
1,2
w
1,R
e(k) = z (k) –
a( k )
Страницы
- « первая
- ‹ предыдущая
- …
- 54
- 55
- 56
- 57
- 58
- …
- следующая ›
- последняя »