ВУЗ:
Составители:
Рубрика:
29
2. Вычисляются теоретические значения ŷ
i
= f(x
i
) с использованием этих
значений параметров.
3. Вычисляются остатки е
i
= ŷ
i
– y
i
и сумма квадратов остатков
2
ˆ
ii
yyS .
4. Вносятся изменения в одну или более оценку параметров.
5. Вычисляются новые теоретические значения ŷ
i
, остатки е
i
и S.
6. Если произошло уменьшение S, то новые значения оценок используются
в качестве новой отправной точки.
7. Шаги 4, 5 и 6 повторяются до тех пор, пока не будет достигнута ситуа-
ция, когда величину S невозможно будет улучшить (в пределах заданной точ-
ности).
8. Полученные на последнем шаге значения параметров а и b являются
оценками параметров уравнения регрессии, полученными по нелинейным ме-
тодом наименьших квадратов.
Конкретные методы минимизации S отличаются способом выбора новых
измененных значений оценок параметров.
2.5. Качество оценок МНК линейной регрессии.
Теорема Гаусса-Маркова
При использовании полученных различными способами оценок парамет-
ров уравнения регрессии (2.6) важно быть уверенными, являются ли они «луч-
шими» среди всех остальных в некотором смысле. Ответ на этот вопрос дает
теорема Гаусса-Маркова, согласно которой оценки параметров линейной рег-
рессии, полученные методом наименьших квадратов, будут несмещенными и
эффективными (т. е. будут иметь
наименьшую дисперсию) в классе линейных
несмещенных оценок при выполнении четырех условий, известных как усло-
вия Гаусса-Маркова.
Эти условия принимаются в качестве основных предпосылок регрессион-
ного анализа.
1-е условие Гаусса-Маркова: математическое ожидание случайного члена
ε
i
равно нулю в любом наблюдении
М(ε
i
) = 0. (2.16)
2-е условие Гаусса-Маркова: дисперсия случайного члена ε
i
постоянна для
всех наблюдений
2
)(
i
D . (2.17)
3-е условие Гаусса-Маркова: значения случайного члена в любых наблю-
дениях ε
i
и ε
j
не коррелируют между собой
Cov(ε
i
, ε
j
) = 0 (i ≠ j). (2.18)
Это условие с учетом того, что М(ε
i
) = М(ε
j
) = 0 принимает вид
M(ε
i
, ε
j
) = 0 (i ≠ j). (2.19)
4-е условие Гаусса-Маркова: случайный член должен быть распределен
независимо от объясняющих переменных x
i
Cov(x
i
, ε
i
) = M (x
i
, ε
i
) = 0, (2.20)
где было учтено, что М(ε
i
) = 0.
Страницы
- « первая
- ‹ предыдущая
- …
- 27
- 28
- 29
- 30
- 31
- …
- следующая ›
- последняя »