Математическая статистика и планирование эксперимента. Рыков В.В - 183 стр.

UptoLike

Составители: 

Глава 5. Планирование эксперимента
линейно, так что по наблюдениям необходимо оценить коэффи-
циенты регрессии.
4. Линейное приближение зависимости. Когда нет ос-
нований считать совместное распределение переменных нор-
мальным, часто все-таки оказывается, что регрессия близка к
линейной. Возникает задача приближения истинной регрессии
линейной и оценки соответствующих коэффициентов.
19.2 ОМП коэффициентов линейной регрессии
Рассмотрим сначала задачу оценки неизвестных коэффи-
циентов регрессии в линейной модели (19.1) при неслучай-
ных регрессионных переменных x = (x
1
, . . . x
k
) по выборке
y = (y
1
, . . . , y
n
) объема n. Вычислим оценки максимального
правдоподобия (ОМП) коэффициентов регрессии в предполо-
жении, что ошибки наблюдений ε
i
независимы и нормально
распределены, ε
i
N(0, σ
2
). Функция правдоподобия в этом
случае имеет вид
L(
~
β; y) =
1
p
(2π)
n
det C
ε
exp
½
1
2
(y X
~
β)
0
C
1
ε
(y X
~
β)
¾
, (19.3)
где y = (y
1
, . . . , y
n
) вектор наблюдений, X матрица
значений регрессионных переменных, а C
ε
ковариацион-
ная матрица вектора ошибок. Оценки b =
ˆ
~
β параметров
~
β = (β
0
, β
1
, . . . , β
k
) находятся из системы нормальных уравне-
ний
0 =
β
j
ln L(
~
β; y) =
1
2
β
j
[(y X
~
β)
0
C
1
ε
(y X
~
β)] =
=
1
2
β
j
[y
0
C
1
ε
X
~
β
~
β
0
X
0
C
1
ε
y +
~
β
0
X
0
C
1
ε
X
~
β)] =
=
1
2
[(y
0
C
1
ε
X)
0
X
0
C
1
ε
y
0
+ X
0
C
1
ε
X
~
β + (
~
β
0
X
0
C
1
ε
X)
0
] =
= X
0
C
1
ε
y X
0
C
1
ε
X
~
β (19.4)
183