ВУЗ:
Составители:
104
U =
u
u
u
uuu
uu
uu
()
()
()
() () ()
(()
() ()
)
1
11 1 1
1
1
T
T
r
T
jm
m
rmr
K
K
KK
K
KKK
K
KKKK
μμ μ
⎡
⎣
⎢
⎢
⎢
⎢
⎢
⎢
⎢
⎤
⎦
⎥
⎥
⎥
⎥
⎥
⎥
⎥
=
⎡
⎣
⎢
⎢
⎢
⎢
⎢
⎢
⎢
⎤
⎦
⎥
⎥
⎥
⎥
⎥
⎥
⎥
. (5.78)
Следовательно, система уравнений (5.76) может быть записана в векторной
форме:
X = U ⋅ a . (5.79)
Предполагая, что компоненты вектора
a в уравнении (5.79) являются оцен-
ками
)
a истинного вектора a, можно с помощью уравнения (5.79) получить такие
оценки
$
X
вектора X, что
$
$
X
=
U
a
⋅
. (5.80)
Скалярную сумму S квадратических ошибок оценивания можно определить сле-
дующим образом:
Str
TT
=− − = − −(
$
)(
$
)[(
$
)(
$
)]XUa XUa XUa XUa, (5.81)
где tr[...] обозначает след матрицы [...]. Таким образом, наилучшая (в смысле наи-
меньших квадратов) оценка вектора
a должна удовлетворять соотношению
∂
∂
S
a
i
$
= 0,
∀
∈
im(, )1 , (5.82)
или в векторной форме
[]
[
]
∂
∂
∂
∂
∂
∂
S
TTTTTT
$
(
$
)(
$
)
$
$$ $ $
$
.
a
tr X Ua X Ua
a
tr XX Uaa U UaX Xa U
a
T
=
−−
=
+−−
= 0 (5.83)
Уравнение (5.83) преобразуется к виду
[]
∂
∂
tr XX Uaa U UaX Xa U
a
UUa UX UX
UUa UX
T
+−−
=+ − − =
=−=
$$ $ $
$
$
(
$
).
TT T TT
TTT
TT
02
20
(5.84)
Поэтому наилучшая в смысле наименьших квадратов оценка
$
a
*
вектора a удов-
летворяет уравнению
U
U
a
U
X
*TT
$
=
, (5.85)
так что
[
]
$
()
$
,
$
,...,
$
** *
aUUUX=
*
=
−TT
m
T
aa a
1
12
, (5.86)
что и позволяет построить процедуру идентификации вектора a на основе линей-
ной регрессии и метода наименьших квадратов. Отметим, что матрица (U
T
U)
-1
су-
ществует только тогда, когда матрица U не является особой.
Для применения метода наименьших квадратов должно выполнятся усло-
вие
r >> m.
⎡ u(T1) ⎤ ⎡ u K u K u ⎤
⎢ ⎥ ⎢ 1(1) j (1) m (1)
⎥
⎢K ⎥ ⎢K ⎥
⎢ T ⎥ ⎢
U = ⎢ u( μ ) ⎥ = u1( μ )KKK um( μ ) ⎥ . (5.78)
⎢ ⎥
⎢K ⎥ ⎢K ⎥
⎢ T ⎥ ⎢ ⎥
⎢⎣ u( r ) ⎥⎦ ⎢⎣ u1( r ) KKKK um( r ) ⎥⎦
Следовательно, система уравнений (5.76) может быть записана в векторной
форме:
X=U⋅a. (5.79)
Предполагая, что компоненты вектора a в уравнении (5.79) являются оцен-
)
a
ками истинного вектора a, можно с помощью уравнения (5.79) получить такие
оценки X$ вектора X, что
X$ = U ⋅ a$ . (5.80)
Скалярную сумму S квадратических ошибок оценивания можно определить сле-
дующим образом:
S = ( X − Ua$ ) T ( X − Ua$ ) = tr[( X − Ua$ ) T ( X − Ua$ )] , (5.81)
где tr[...] обозначает след матрицы [...]. Таким образом, наилучшая (в смысле наи-
меньших квадратов) оценка вектора a должна удовлетворять соотношению
∂S
= 0 , ∀i ∈ (1, m) , (5.82)
∂a$i
или в векторной форме
∂S ∂tr[( X − Ua$ )( X − Ua$ ) ] ∂tr[ XX + Uaa $ $ T U T − UaX $ T − Xa$ T U T ]
T T
= = = 0. (5.83)
∂a$ ∂a$ ∂a$
Уравнение (5.83) преобразуется к виду
∂tr[ XX T + Uaa $ T − Xa$ T U T ]
$ $ T U T − UaX
= 0 + 2 U T Ua$ − U T X − U T X =
∂a$ (5.84)
= 2( U Ua$ − U X) = 0.
T T
*
Поэтому наилучшая в смысле наименьших квадратов оценка a$ вектора a удов-
летворяет уравнению
U T Ua$* = U T X , (5.85)
так что
[ ]T
a$* = (U T U ) −1 U T X = a$1* , a$ 2* ,..., a$ m* , (5.86)
что и позволяет построить процедуру идентификации вектора a на основе линей-
ной регрессии и метода наименьших квадратов. Отметим, что матрица (UTU)-1 су-
ществует только тогда, когда матрица U не является особой.
Для применения метода наименьших квадратов должно выполнятся усло-
вие
r >> m.
104
Страницы
- « первая
- ‹ предыдущая
- …
- 102
- 103
- 104
- 105
- 106
- …
- следующая ›
- последняя »
