ВУЗ:
Составители:
Рубрика:
ограниченном классе функций
)(
x
ϕ
- линейные функции или многочлены второй
или более высокой степени.
Таким образом, уравнение
)()(
^
xxy
в
ϕ
=
называется выборочным уравнением регрессии Y на X, где
BAxx
в
+=
)(
ϕ
либо
CBxAxx
в
++=
2
)(
ϕ
и т.д.
В основу определения коэффициентов А, В, С и т.д. положен метод
наименьших квадратов. «Наилучшая» оценка этих коэффициентов обращает в
минимум сумму квадратов уклонений наблюдаемых значений
i
y
от вычисленных
при тех же значениях
i
x
значений
BAxxy
ii
+=
)(
^
, т.е.
∑∑
==
=−−=−=
n
i
xi
n
i
ii
BAyyyBAF
i
1
22
1
^
min)()(),(
.
Минимум функции F(А, В) достигается при решении системы
0
=
∂
∂
A
F
,
0
=
∂
∂
B
F
.
В результате решения этой системы получим:
x
y
S
S
rA
−
=
;
−−−
−=
x
S
S
ryB
x
y
.
Уравнение оцениваемой прямой имеет вид:
−−−−
−+=
x
S
S
ryx
S
S
ry
x
y
x
y
^
и называется уравнением линейной регрессии Y на X. Это уравнение совпадает с
уравнением регрессии нормального закона распределения вероятностей.
По методу наименьших квадратов можно находить оценку параметров
линии регрессии при нелинейной регрессии, например, для
CBxAxy
++=
2
^
.
Оценки параметров А, В, С находятся из условия минимума функции
9
9 ограниченном классе функций ϕ ( x ) - линейные функции или многочлены второй или более высокой степени. Таким образом, уравнение ^ y( x ) = ϕ в ( x ) называется выборочным уравнением регрессии Y на X, где ϕ в ( x ) = Ax + B либо ϕ в ( x ) = Ax 2 + Bx + C и т.д. В основу определения коэффициентов А, В, С и т.д. положен метод наименьших квадратов. «Наилучшая» оценка этих коэффициентов обращает в минимум сумму квадратов уклонений наблюдаемых значений y i от вычисленных ^ при тех же значениях x i значений y( x i ) = Ax i + B , т.е. n ^ n F ( A, B ) = ∑ i= 1 ( yi − yi )2 = ∑ i= 1 ( y i − A xi − B ) 2 = min . Минимум функции F(А, В) достигается при решении системы ∂F = 0, ∂A ∂F = 0. ∂B В результате решения этой системы получим: − Sy − − Sy − A= r ; B = y− r x. Sx Sx Уравнение оцениваемой прямой имеет вид: ^ − Sy − − Sy − y= r x + y− r x Sx Sx и называется уравнением линейной регрессии Y на X. Это уравнение совпадает с уравнением регрессии нормального закона распределения вероятностей. По методу наименьших квадратов можно находить оценку параметров линии регрессии при нелинейной регрессии, например, для ^ y = Ax 2 + Bx + C . Оценки параметров А, В, С находятся из условия минимума функции
Страницы
- « первая
- ‹ предыдущая
- …
- 7
- 8
- 9
- 10
- 11
- …
- следующая ›
- последняя »