ВУЗ:
Составители:
104
U =
u
u
u
uuu
uu
uu
()
()
()
() () ()
(()
() ()
)
1
11 1 1
1
1
T
T
r
T
jm
m
rmr
K
K
KK
K
KKK
K
KKKK
μμ μ
⎡
⎣
⎢
⎢
⎢
⎢
⎢
⎢
⎢
⎤
⎦
⎥
⎥
⎥
⎥
⎥
⎥
⎥
=
⎡
⎣
⎢
⎢
⎢
⎢
⎢
⎢
⎢
⎤
⎦
⎥
⎥
⎥
⎥
⎥
⎥
⎥
. (5.78)
Следовательно, система уравнений (5.76) может быть записана в векторной
форме:
X = U ⋅ a . (5.79)
Предполагая, что компоненты вектора
a в уравнении (5.79) являются оцен-
ками
)
a истинного вектора a, можно с помощью уравнения (5.79) получить такие
оценки
$
X
вектора X, что
$
$
X
=
U
a
⋅
. (5.80)
Скалярную сумму S квадратических ошибок оценивания можно определить сле-
дующим образом:
Str
TT
=− − = − −(
$
)(
$
)[(
$
)(
$
)]XUa XUa XUa XUa, (5.81)
где tr[...] обозначает след матрицы [...]. Таким образом, наилучшая (в смысле наи-
меньших квадратов) оценка вектора
a должна удовлетворять соотношению
∂
∂
S
a
i
$
= 0,
∀
∈
im(, )1 , (5.82)
или в векторной форме
[]
[
]
∂
∂
∂
∂
∂
∂
S
TTTTTT
$
(
$
)(
$
)
$
$$ $ $
$
.
a
tr X Ua X Ua
a
tr XX Uaa U UaX Xa U
a
T
=
−−
=
+−−
= 0 (5.83)
Уравнение (5.83) преобразуется к виду
[]
∂
∂
tr XX Uaa U UaX Xa U
a
UUa UX UX
UUa UX
T
+−−
=+ − − =
=−=
$$ $ $
$
$
(
$
).
TT T TT
TTT
TT
02
20
(5.84)
Поэтому наилучшая в смысле наименьших квадратов оценка
$
a
*
вектора a удов-
летворяет уравнению
U
U
a
U
X
*TT
$
=
, (5.85)
так что
[
]
$
()
$
,
$
,...,
$
** *
aUUUX=
*
=
−TT
m
T
aa a
1
12
, (5.86)
что и позволяет построить процедуру идентификации вектора a на основе линей-
ной регрессии и метода наименьших квадратов. Отметим, что матрица (U
T
U)
-1
су-
ществует только тогда, когда матрица U не является особой.
Для применения метода наименьших квадратов должно выполнятся усло-
вие
r >> m.
⎡ u(T1) ⎤ ⎡ u K u K u ⎤ ⎢ ⎥ ⎢ 1(1) j (1) m (1) ⎥ ⎢K ⎥ ⎢K ⎥ ⎢ T ⎥ ⎢ U = ⎢ u( μ ) ⎥ = u1( μ )KKK um( μ ) ⎥ . (5.78) ⎢ ⎥ ⎢K ⎥ ⎢K ⎥ ⎢ T ⎥ ⎢ ⎥ ⎢⎣ u( r ) ⎥⎦ ⎢⎣ u1( r ) KKKK um( r ) ⎥⎦ Следовательно, система уравнений (5.76) может быть записана в векторной форме: X=U⋅a. (5.79) Предполагая, что компоненты вектора a в уравнении (5.79) являются оцен- ) a ками истинного вектора a, можно с помощью уравнения (5.79) получить такие оценки X$ вектора X, что X$ = U ⋅ a$ . (5.80) Скалярную сумму S квадратических ошибок оценивания можно определить сле- дующим образом: S = ( X − Ua$ ) T ( X − Ua$ ) = tr[( X − Ua$ ) T ( X − Ua$ )] , (5.81) где tr[...] обозначает след матрицы [...]. Таким образом, наилучшая (в смысле наи- меньших квадратов) оценка вектора a должна удовлетворять соотношению ∂S = 0 , ∀i ∈ (1, m) , (5.82) ∂a$i или в векторной форме ∂S ∂tr[( X − Ua$ )( X − Ua$ ) ] ∂tr[ XX + Uaa $ $ T U T − UaX $ T − Xa$ T U T ] T T = = = 0. (5.83) ∂a$ ∂a$ ∂a$ Уравнение (5.83) преобразуется к виду ∂tr[ XX T + Uaa $ T − Xa$ T U T ] $ $ T U T − UaX = 0 + 2 U T Ua$ − U T X − U T X = ∂a$ (5.84) = 2( U Ua$ − U X) = 0. T T * Поэтому наилучшая в смысле наименьших квадратов оценка a$ вектора a удов- летворяет уравнению U T Ua$* = U T X , (5.85) так что [ ]T a$* = (U T U ) −1 U T X = a$1* , a$ 2* ,..., a$ m* , (5.86) что и позволяет построить процедуру идентификации вектора a на основе линей- ной регрессии и метода наименьших квадратов. Отметим, что матрица (UTU)-1 су- ществует только тогда, когда матрица U не является особой. Для применения метода наименьших квадратов должно выполнятся усло- вие r >> m. 104
Страницы
- « первая
- ‹ предыдущая
- …
- 102
- 103
- 104
- 105
- 106
- …
- следующая ›
- последняя »