Практикум по математической статистике. Панков А.Р - 39 стр.

UptoLike

Составители: 

76 МЕТОД НАИМЕНЬШИХ КВАДРАТОВ § 12.
Введем обозначения: H
n
матрица размера (n×p), k строкой кото-
рой является h
(t
k
); E
n
= {ε
1
, . . . , ε
n
}
. Тогда (12.1) можно представит
в виде
Z
n
= H
n
θ + E
n
. (12.2)
О п р е д е л е н и е 12.1. Модель (12.2), удовлетворяющая всем сделан-
ным выше предположениям, называется линейной гауссовской регресси-
онной моделью порядка p.
Уравнения (12.1) и (12.2) можно трактовать как математическую
модель процесса наблюдения полезного сигнала ϕ(t; θ) = h
(t)θ в дис-
кретные моменты времени {t
k
} со случайными аддитивными ошибками
наблюдения {ε
k
, k = 1, . . . , n}.
Рассмотрим задачу оценивания по выборке Z
n
вектора Y = L θ, где
L заданная неслучайная матрица размера (q × p). Для построения
оценки
b
Y
n
вектора Y воспользуемся методом максимального правдопо-
добия. По предположению вектор наблюдений Z
n
в модели (12.2) имеет
гауссовское распределение:
Z
n
N(H
n
θ; σ
2
I). (12.3)
Т е о р е м а 12.1. Пусть матрица W
n
= H
n
H
n
невырожденная.
Тогда МП-оценка
b
Y
n
вектора Y по выборке Z
n
имеет вид
b
Y
n
= L
b
θ
n
, (12.4)
где
b
θ
n
оценка вектора θ вида
b
θ
n
= W
n
1
H
n
Z
n
. (12.5)
Из доказательства теоремы 12.1 (см. пример 12.1) следует, что
b
θ
n
есть
точка минимума квадратичной функции потерь:
b
θ
n
= arg min
θ
|Z
n
H
n
θ|
2
. (12.6)
О п р е д е л е н и е 12.2. Оценка
b
θ
n
вектора, определяемая из усло-
вия (12.6) и имеющая вид (12.5), называется оценкой метода наимень-
ших квадратов (МНК-оценкой) вектора θ в модели линейной регрес-
сии (12.2).
§ 12. МЕТОД НАИМЕНЬШИХ КВАДРАТОВ 77
Статистические свойства ошибки
b
Y
n
=
b
Y
n
Y оценки
b
Y
n
вектора
Y приведены в следующей теореме.
Т е о р е м а 12.2. Оценка
b
Y
n
и ее ошибка
b
Y
n
обладают следующими
свойствами:
1) M
n
b
Y
n
o
= Y , M
n
b
Y
n
o
= 0 несмещенность;
2)
b
Y
n
N
Y ;
b
K
Y
n
,
b
Y
n
N
0;
b
K
Y
n
, где
b
K
Y
n
=
= cov{
b
Y
n
,
b
Y
n
} = σ
2
LW
n
1
L
ковариационная матрица ошибки
b
Y
n
оценки
b
Y
n
;
3) оценка
b
Y
n
эффективна по Рао-Крамеру.
Так как при L = I оценка
b
Y
n
превращается в
b
θ
n
, то справедливо
следующее утверждение.
С л е д с т в и е 12.1. Оценка
b
θ
n
вида (12.5) имеет распределение
N
θ;
b
K
n
, где
b
K
n
= σ
2
W
n
1
ковариационная матрица ее ошибки
b
θ
n
=
b
θ
n
θ. МНК-оценка
b
θ
n
несмещенная и эффективная по Рао-
Крамеру.
С л е д с т в и е 12.2. СВ ξ =
1
σ
2
|Z
n
H
n
b
θ
n
|
2
имеет хи-квадрат распре-
деление с r = n p степенями свободы: ξ H
np
.
Если отказаться от предположения о том, что вектор ошибок E
n
гауссовский, то
b
Y
n
теряет свойство эффективности, но остается наилуч-
шей (по с.к.-критерию) среди всех линейных несмещенных оценок.
О п р е д е л е н и е 12.3. Оценка
e
Y
n
вектора Y по наблюдениям Z
n
называется линейной несмещенной оценкой, если она имеет вид
e
Y
n
=
= A
n
Z
n
, где A
n
неслучайная матрица размера (q × n), причем
M
n
e
Y
n
o
= Y .
Т е о р е м а 12.3 аусс-Марков). Пусть
b
K
Y
n
ковариационна ма-
трица ошибки оценки
b
Y
n
вида (12.4), (12.5), а
e
K
Y
n
ковариационная
матрица произвольной линейной несмещенной оценки
e
Y
n
вектора Y .
Тогда
b
K
Y
n
6
e
K
Y
n
.
Таким образом, оценка
b
Y
n
является наилучшей линейной несме-
щенной оценкой вектора Y в модели линейной регрессии (12.2) (НЛН-
оценкой).
Пусть теперь вектор ошибок наблюдений E
n
в модели (12.2) имеет
нулевое с реднее M{E
n
} = 0 и произвольную невырожденную ковари-
ационную матрицу cov (E
n
, E
n
) = V
n
> 0. Соответствующую модель
76                     МЕТОД НАИМЕНЬШИХ КВАДРАТОВ                          § 12.   § 12.                  МЕТОД НАИМЕНЬШИХ КВАДРАТОВ                     77

   Введем обозначения: H n — матрица размера (n×p), k-й строкой кото-                 Статистические свойства ошибки ∆Yb n = Yb n − Y оценки Yb n вектора
рой является h⊤ (t k); E n = {ε 1, . . . , ε n}⊤ . Тогда (12.1) можно представит   Y приведены в следующей теореме.
в виде                                                                                Т е о р е м а 12.2. Оценка Yb n и ее ошибка ∆Yb n обладают следующими
                                                                                   свойствами:
                                                                                             n o             n       o
                               Z n = H nθ + E n.                         (12.2)        1) M Yb n = Y , M ∆Yb n = 0 — несмещенность;
                                                                                                                                            
   О п р е д е л е н и е 12.1. Модель (12.2), удовлетворяющая всем сделан-             2) Yb n ∼ N Y ; K      b
                                                                                                                Yn   , ∆ Yb
                                                                                                                            n  ∼    N   0; b
                                                                                                                                           K          b
                                                                                                                                             Yn , где K Yn =
ным выше предположениям, называется линейной гауссовской регресси-
                                                                                   = cov{∆Yb n, ∆Yb n} = σ 2 LW −1   n L
                                                                                                                        ⊤
                                                                                                                            — ковариационная матрица ошибки
онной моделью порядка p.
                                                                                     b
                                                                                   ∆Y n оценки Y n;b
   Уравнения (12.1) и (12.2) можно трактовать как математическую
модель процесса наблюдения “полезного сигнала” ϕ(t; θ) = h⊤ (t)θ в дис-                3) оценка Yb n эффективна по Рао-Крамеру.
кретные моменты времени {t k} со случайными аддитивными ошибками                      Так как при L = I оценка Yb n превращается в θbn, то справедливо
наблюдения {ε k, k = 1, . . . , n}.                                                следующее утверждение.
   Рассмотрим задачу оценивания по выборке Z n вектора Y = L θ, где                                                      b
L — заданная неслучайная матрица размера (q × p). Для построения                     С л е дс т в и е 12.1. Оценка θ n вида (12.5) имеет распределение
                                                                                   N θ; K  b , где K   b = σ 2 W −1 — ковариационная матрица ее ошибки
оценки Yb n вектора Y воспользуемся методом максимального правдопо-                            n     n         n
добия. По предположению вектор наблюдений Z n в модели (12.2) имеет                ∆θbn = θbn − θ. МНК-оценка θbn — несмещенная и эффективная по Рао-
гауссовское распределение:                                                         Крамеру.
                                                                                                                    1
                             Z n ∼ N (H nθ; σ 2 I).                      (12.3)       С л е д с т в и е 12.2. СВ ξ = |Z −H θb |2 имеет хи-квадрат распре-
                                                                                                                        n   n n
                                                                                                                   σ2
                                                                                   деление с r = n − p степенями свободы: ξ ∼ H n−p.
   Т е о р е м а 12.1. Пусть матрица W n = H n⊤ H n — невырожденная.                  Если отказаться от предположения о том, что вектор ошибок E n —
Тогда МП-оценка Yb n вектора Y по выборке Z n имеет вид                            гауссовский, то Yb n теряет свойство эффективности, но остается наилуч-
                                                                                   шей (по с.к.-критерию) среди всех линейных несмещенных оценок.
                                  Yb n = L θbn,                          (12.4)       О п р е д е л е н и е 12.3. Оценка Ye n вектора Y по наблюдениям Z n
                                                                                   называется линейной несмещенной оценкой, если она имеет вид Ye n =
где θbn — оценка вектора θ вида                                                    = nA nZon, где A n — неслучайная матрица размера (q × n), причем
                                                                                   M Ye    n=Y.
                              θbn = W −1  ⊤
                                      n H n Z n.                         (12.5)
                                                                                                                               b
                                                                                      Т е о р е м а 12.3 (Гаусс-Марков). Пусть K Yn — ковариационна ма-
   Из доказательства теоремы 12.1 (см. пример 12.1) следует, что θbn есть                                   b
                                                                                   трица ошибки оценки Y n вида (12.4), (12.5), а Ke
                                                                                                                                     Yn — ковариационная
точка минимума квадратичной функции потерь:                                        матрица произвольной линейной несмещенной оценки Ye n вектора Y .
                                                                                   Тогда Kb 6K     e .
                                                                                            Yn      Yn
                          θbn = arg min |Z n − H nθ|2 .                  (12.6)
                                     θ                                                Таким образом, оценка Yb n является наилучшей линейной несме-
                                                                                   щенной оценкой вектора Y в модели линейной регрессии (12.2) (НЛН-
   О п р е д е л е н и е 12.2. Оценка θbn вектора, определяемая из усло-           оценкой).
вия (12.6) и имеющая вид (12.5), называется оценкой метода наимень-                   Пусть теперь вектор ошибок наблюдений E n в модели (12.2) имеет
ших квадратов (МНК-оценкой) вектора θ в модели линейной регрес-                    нулевое среднее M{En } = 0 и произвольную невырожденную ковари-
сии (12.2).                                                                        ационную матрицу cov (E n, E n) = V n > 0. Соответствующую модель