Эконометрика: Введение в регрессионный анализ временных рядов. Носко В.П. - 14 стр.

UptoLike

Составители: 

Рубрика: 

Cov (
ε
*
| X ) = E (
ε
*
ε
*T
| X ) = E (P ε (P ε)
T
| X )
= P E
(ε ε
T
| X ) P
T
= P σ
2
V P
T
.
Но V = (V
– 1
)
– 1
= (P
T
P)
– 1
, так что
Cov (
ε
*
| X ) = P σ
2
V P
T
= σ
2
P(P
T
P)
– 1
P
T
= σ
2
I
n
.
Преобразуя с помощью матрицы
P обе части основного уравнения
y = X
θ
+
ε
,
получаем:
Py = PX
θ
+ P
ε
,
или
y
*
= X
*
θ
+
ε
*
,
где
y
*
= Py , X
*
= PX , ε
*
= P ε .
В преобразованном уравнении
ε
*
| X ~ N (0 , σ
2
I
n
) ,
так что преобразованная модель удовлетворяет условиям, характеризующим ситуацию A΄.
Это означает, что все результаты, полученные в ситуации A, применимы к модели
y
*
= X
*
θ
+
ε
*
.
В частности, оценка наименьших квадратов
θ
*
= (X
*T
X
*
)
– 1
X
*T
y
*
= (X
T
P
T
PX)
– 1
X
T
P
T
Py = (X
T
V
– 1
X)
– 1
X
T
V
– 1
y
является несмещенной, т.е. E(
θ
*
) =
θ
, ее условное распределение (относительно X)
нормально и имеет ковариационную матрицу
Cov (
θ
*
| X ) = σ
2
(X
*T
X
*
)
– 1
= σ
2
(X
T
V
– 1
X)
– 1
.
Эта оценка известна как
обобщенная оценка наименьших квадратов (GLS – generalized
least squares).
В рамках модели
y
*
= X
*
θ
+
ε
*
можно использовать обычные статистические
процедуры, основанные на
t- и F-статистиках.
Если ковариационная матрица
V не известна априори, то обычно ограничиваются
моделями, в которых она параметризована
, так что V = V(β) , где β векторный параметр,
который приходится оценивать по имеющимся наблюдениям. При этом достаточно часто
можно использовать стандартные выводы в асимптотическом
плане, заменяя в выражении
для GLS оценки
θ
*
= (X
T
V
– 1
X)
– 1
X
T
V
– 1
y неизвестную матрицу V = V(β
0
) (V(β
0
) –
истинная
ковариационная матрица вектора ε ) матрицей V(
n
β
ˆ
), где
n
β
ˆ
любая
состоятельная оценка для
β
0
. Более того, такую состоятельную оценку часто можно
получить простым анализом остатков при оценивании обычной процедурой наименьших
квадратов.
    Cov (ε*| X ) = E (ε*ε*T | X ) = E (P ε (P ε)T | X )
                   = P E (ε εT | X ) PT = P σ2 V PT .
Но V = (V ) = (PTP) – 1 , так что
            –1 –1

    Cov (ε*| X ) = P σ2 V PT = σ2 P(PTP) – 1PT = σ2 In .
Преобразуя с помощью матрицы P обе части основного уравнения
    y = Xθ + ε ,
 получаем:
    Py = PXθ + Pε ,
или
    y* = X*θ + ε* ,
где
    y* = Py , X* = PX , ε* = P ε .
В преобразованном уравнении
    ε* | X ~ N (0 , σ2 In) ,
так что преобразованная модель удовлетворяет условиям, характеризующим ситуацию A΄.
Это означает, что все результаты, полученные в ситуации A, применимы к модели y* = X*θ
+ ε* .
    В частности, оценка наименьших квадратов
    θ * = (X*TX*) – 1 X*T y* = (XTPTPX) – 1 XTPTPy = (XT V – 1X) – 1 XT V – 1y
является несмещенной, т.е. E(θ*) = θ , ее условное распределение (относительно X)
нормально и имеет ковариационную матрицу
    Cov (θ * | X ) = σ2(X*TX*) – 1 = σ2(XT V – 1X) – 1.
Эта оценка известна как обобщенная оценка наименьших квадратов (GLS – generalized
least squares).
    В рамках модели y* = X*θ + ε* можно использовать обычные статистические
процедуры, основанные на t- и F-статистиках.

   Если ковариационная матрица V не известна априори, то обычно ограничиваются
моделями, в которых она параметризована, так что V = V(β) , где β – векторный параметр,
который приходится оценивать по имеющимся наблюдениям. При этом достаточно часто
можно использовать стандартные выводы в асимптотическом плане, заменяя в выражении
для GLS оценки θ * = (XT V – 1X) – 1 XT V – 1y неизвестную матрицу V = V(β0) (V(β0) –
истинная ковариационная матрица вектора ε ) матрицей V( βˆ n ), где βˆ n – любая
состоятельная оценка для β0 . Более того, такую состоятельную оценку часто можно
получить простым анализом остатков при оценивании обычной процедурой наименьших
квадратов.