Математика (Статистика, корреляция и регрессия). Кислов К.К. - 9 стр.

UptoLike

Составители: 

ограниченном классе функций
)(
x
ϕ
- линейные функции или многочлены второй
или более высокой степени.
Таким образом, уравнение
)()(
^
xxy
в
ϕ
=
называется выборочным уравнением регрессии Y на X, где
BAxx
в
+=
)(
ϕ
либо
CBxAxx
в
++=
2
)(
ϕ
и т.д.
В основу определения коэффициентов А, В, С и т.д. положен метод
наименьших квадратов. «Наилучшая» оценка этих коэффициентов обращает в
минимум сумму квадратов уклонений наблюдаемых значений
i
y
от вычисленных
при тех же значениях
i
x
значений
BAxxy
ii
+=
)(
^
, т.е.
==
===
n
i
xi
n
i
ii
BAyyyBAF
i
1
22
1
^
min)()(),(
.
Минимум функции F(А, В) достигается при решении системы
,
.
В результате решения этой системы получим:
x
y
S
S
rA
=
;
=
x
S
S
ryB
x
y
.
Уравнение оцениваемой прямой имеет вид:
+=
x
S
S
ryx
S
S
ry
x
y
x
y
^
и называется уравнением линейной регрессии Y на X. Это уравнение совпадает с
уравнением регрессии нормального закона распределения вероятностей.
По методу наименьших квадратов можно находить оценку параметров
линии регрессии при нелинейной регрессии, например, для
CBxAxy
++=
2
^
.
Оценки параметров А, В, С находятся из условия минимума функции
9
                                                                   9
ограниченном классе функций ϕ ( x ) - линейные функции или многочлены второй
или более высокой степени.
       Таким образом, уравнение
                                                              ^
                                                              y( x ) = ϕ в ( x )

называется выборочным уравнением регрессии Y на X, где ϕ в ( x ) = Ax + B либо

ϕ в ( x ) = Ax 2 + Bx + C и т.д.

     В основу определения коэффициентов А, В, С и т.д. положен метод
наименьших квадратов. «Наилучшая» оценка этих коэффициентов обращает в
минимум сумму квадратов уклонений наблюдаемых значений y i от вычисленных
                                                      ^
при тех же значениях x i значений y( x i ) = Ax i + B , т.е.
                                       n              ^                 n
                       F ( A, B ) =   ∑
                                      i= 1
                                             ( yi − yi )2 =            ∑
                                                                       i= 1
                                                                              ( y i − A xi − B ) 2 = min .

       Минимум функции F(А, В) достигается при решении системы
        ∂F
           = 0,
        ∂A
       ∂F
          = 0.
       ∂B
       В результате решения этой системы получим:
                                                      −   Sy                        −       −   Sy   −
                                               A= r               ; B = y− r                         x.
                                                          Sx                                    Sx

       Уравнение оцениваемой прямой имеет вид:

                                                  ^       −       Sy            −       −   Sy   −
                                                  y= r                  x + y− r                 x
                                                                  Sx                        Sx

и называется уравнением линейной регрессии Y на X. Это уравнение совпадает с
уравнением регрессии нормального закона распределения вероятностей.
      По методу наименьших квадратов можно находить оценку параметров
линии регрессии при нелинейной регрессии, например, для
                                                      ^
                                                      y = Ax 2 + Bx + C .
       Оценки параметров А, В, С находятся из условия минимума функции