ВУЗ:
Составители:
Рубрика:
ограниченном классе функций
)(
x
ϕ
- линейные функции или многочлены второй
или более высокой степени.
Таким образом, уравнение
)()(
^
xxy
в
ϕ
=
называется выборочным уравнением регрессии Y на X, где
BAxx
в
+=
)(
ϕ
либо
CBxAxx
в
++=
2
)(
ϕ
и т.д.
В основу определения коэффициентов А, В, С и т.д. положен метод
наименьших квадратов. «Наилучшая» оценка этих коэффициентов обращает в
минимум сумму квадратов уклонений наблюдаемых значений
i
y
от вычисленных
при тех же значениях
i
x
значений
BAxxy
ii
+=
)(
^
, т.е.
∑∑
==
=−−=−=
n
i
xi
n
i
ii
BAyyyBAF
i
1
22
1
^
min)()(),(
.
Минимум функции F(А, В) достигается при решении системы
0
=
∂
∂
A
F
,
0
=
∂
∂
B
F
.
В результате решения этой системы получим:
x
y
S
S
rA
−
=
;
−−−
−=
x
S
S
ryB
x
y
.
Уравнение оцениваемой прямой имеет вид:
−−−−
−+=
x
S
S
ryx
S
S
ry
x
y
x
y
^
и называется уравнением линейной регрессии Y на X. Это уравнение совпадает с
уравнением регрессии нормального закона распределения вероятностей.
По методу наименьших квадратов можно находить оценку параметров
линии регрессии при нелинейной регрессии, например, для
CBxAxy
++=
2
^
.
Оценки параметров А, В, С находятся из условия минимума функции
9
9
ограниченном классе функций ϕ ( x ) - линейные функции или многочлены второй
или более высокой степени.
Таким образом, уравнение
^
y( x ) = ϕ в ( x )
называется выборочным уравнением регрессии Y на X, где ϕ в ( x ) = Ax + B либо
ϕ в ( x ) = Ax 2 + Bx + C и т.д.
В основу определения коэффициентов А, В, С и т.д. положен метод
наименьших квадратов. «Наилучшая» оценка этих коэффициентов обращает в
минимум сумму квадратов уклонений наблюдаемых значений y i от вычисленных
^
при тех же значениях x i значений y( x i ) = Ax i + B , т.е.
n ^ n
F ( A, B ) = ∑
i= 1
( yi − yi )2 = ∑
i= 1
( y i − A xi − B ) 2 = min .
Минимум функции F(А, В) достигается при решении системы
∂F
= 0,
∂A
∂F
= 0.
∂B
В результате решения этой системы получим:
− Sy − − Sy −
A= r ; B = y− r x.
Sx Sx
Уравнение оцениваемой прямой имеет вид:
^ − Sy − − Sy −
y= r x + y− r x
Sx Sx
и называется уравнением линейной регрессии Y на X. Это уравнение совпадает с
уравнением регрессии нормального закона распределения вероятностей.
По методу наименьших квадратов можно находить оценку параметров
линии регрессии при нелинейной регрессии, например, для
^
y = Ax 2 + Bx + C .
Оценки параметров А, В, С находятся из условия минимума функции
Страницы
- « первая
- ‹ предыдущая
- …
- 7
- 8
- 9
- 10
- 11
- …
- следующая ›
- последняя »
