ВУЗ:
Составители:
Рубрика:
3
1. ПАРНАЯ РЕГРЕССИЯ И КОРРЕЛЯЦИЯ
1.1. Методические указания
Парная регрессия – уравнение связи двух переменных y и x:
x)y
f
(
∧
=
,
где
y
– зависимая переменная (результативный признак),
x
– независимая, объясняющая переменная (признак-фактор).
Различают линейные и нелинейные регрессии.
Линейная регрессия:
ε
+
∗
+
= xbay
.
Нелинейные регрессии делятся на два класса: регрессии, нелинейные относительно
включенных, но линейные по оцениваемым параметрам, и регрессии, нелинейные по
оцениваемым параметрам.
Регрессии, нелинейные по объясняющим переменным:
- полиномы разных степеней
ε
+∗+∗+∗+=
3
3
2
21
xbxbxbay
;
- равносторонняя гипербола
ε
++=
x
b
ay
.
Регрессии, нелинейные по оцениваемым параметрам:
- степенная
ε
∗∗=
b
xay
;
- показательная
ε
∗∗=
x
bay
;
- экспоненциальная
ε
∗=
+ bxa
ey
.
Построение уравнения регрессии сводится к оценке ее параметров. Для оценки
параметров регрессий, линейных по параметрам, используют метод наименьших
квадратов (МНК). МНК позволяет получить такие оценки параметров, при которых
сумма квадратов отклонения фактически значений результативного признака
y
от
теоретических
x
∧
y
минимальна, то есть
miny-(y →∑
∧
)
.
Для линейных и нелинейных уравнений, приводимых к линейным, решается
следующая система относительно
a
и
b
:
⎩
⎨
⎧
∑=∑+∑
∑=∑+
⋅
yxxbxa
yxbna
2
Тесноту связи изучаемых явлений оценивает линейный коэффициент парной
корреляции
xy
r
для линейной регрессии
)1
≤
≤
xy
r(-1
:
yxyxy
x
xy
xyxyy)cov(x,
br
σσσσσ
σ
∗−∗
===
,
и индекс корреляции
xy
ρ
- для нелинейной регрессии
1)(0
xy
≤
≤
ρ