Регрессионный анализ данных на ПК в примерах и задачах (система Statistica). Богатова В.П. - 3 стр.

UptoLike

Составители: 

Рубрика: 

го, вектор оценок
)
)
YX
β
= зависимой переменной минимально (в смысле квад-
рата нормы разности) отличается от вектора
Y
заданных значений:
)
)
22
min
YYYXβ=−→ по
)
β
.
Ковариационная (дисперсионная) матрица равна
)
)
(
)
)
(
)
(
)
1
22
T
T
βββββσσ
=== , ( 16 )
где
(
)
1
T
ZXX
=
Далее обозначим вектор остатков (или невязок )
)
)
(
)
1
TT
eYYYXIXXXXYBY
β

=−==−=


( 17 )
здесь
(
)
1
TT
BIXXXX
=−
матрица; можно проверить, что
2
BB
=
. Для
остаточной суммы квадратов
2
e
справедливо соотношение
2
22
1
(1)
n
i
i
MeMenk
σ
=
==−−
,
откуда следует, что несмещенной оценкой для
2
σ
является
2
2
11
T
e
YBY
s
nknk
==
−−
. ( 18 )
В предположениях модели справедливы следующие свойства оценок :
1)
2
2
(1)
s
nk
σ
−−
имеет распределение хи-квадрат с
1
nk
−−
степенями
свободы (
2
1
nk
χ
−−
);
2) оценки
)
β
и
2
s
независимы .
Как и в случае простой регрессии, справедливо соотношение
(
)
)
(
)
)
(
)
22
2
ii
iii
iii
yyyyyy
=+−
∑∑
или
SS
T
= SS
E
+ SS
R
. ( 19 )
                      
го, вектор оценок Y =X β зависимой переменной минимально (в смысле квад-
рата нормы разности) отличается от вектора Y заданных значений:
                          2          2           
                       Y −Y = Y −X β → min по β .

Ковариационная (дисперсионная) матрица равна
                                  
                                           (                )(
                       D β = β −β β −β =σ 2 ( X T X ) =σ 2 Z ,                    )
                                          T          −1
                                                                                                                                ( 16 )

        (       )
                −1
где Z = X T X

      Далее обозначим вектор остатков (или невязок)
                                    
                                                                                           (            )
                                                                                                         −1
                     e =Y −Y =Y −X β =� I −X X T X                                                            X � T Y =BY       ( 17 )
                                         �                                                                       �

                     (       )
                             −1
здесь B =I −X X T X               XT       – матрица; можно проверить, что                                               B 2 =B . Для
                                               2
остаточной суммы квадратов e                       справедливо соотношение
                                                            n
                                  M e =M ∑ ei2 =(n −k −1)σ 2 ,
                                           2

                                                           i =1


откуда следует, что несмещенной оценкой для σ 2                                                    является
                                                                          2
                                                                      e                    Y T BY
                                               s = 2
                                                                                      =           .                             ( 18 )
                                                                n −k −1                   n −k −1
      В предположениях модели справедливы следующие свойства оценок:
                   s2
      1) ( n −k −1) 2            имеет распределение хи-квадрат                                                   с n −k −1 степенями
                   σ
свободы ( χn2−k −1 );
                     
     2) оценки β и s 2 независимы.
      Как и в случае простой регрессии, справедливо соотношение

                                                                                              
                         ∑(y               ) =∑ ( y −y ) +∑ ( y                                               )
                                           2                                      2                           2
                                  i   −y                          i           i                    i   −y i
                         i                             i                                   i

или
                                                       SST = SSE + SSR .                                                        ( 19 )