Составители:
Рубрика:
10
Парная корреляция характеризует тесноту и направленность связи ме-
жду результативным и факторным признаками. Парная регрессия позволя-
ет описать форму связи в виде уравнения парной регрессии (табл.2).
Таблица 2
Основные виды уравнений парной регрессии
Наименование формы парной регрессии Вид уравнения парной регрессии
Линейная
y
~
= а
0
+ a
1
x
Гиперболическая
y
~
= а
0
+ a
1
(1/x)
Параболическая
y
~
= а
0
+ a
1
x + a
2
x
2
Степенная
y
~
= а
0
x
a1
В данной таблице
y
~
– теоретическое значение результативного признака (y)
при определенном значении факторного признака (x), подставленном в регрес-
сионное уравнение; а
0
– свободный член уравнения; a
1,
a
2
– коэффициенты рег-
рессии.
Параметры уравнений парной регрессии
a
1
,
a
2
называют коэффициен-
тами регрессии
. Для оценки параметров уравнения парной регрессии ис-
пользуется метод наименьших квадратов (МНК). Он заключается в опре-
делении параметров
а
0
, a
1
,
a
2
, при которых сумма квадратов отклонений
фактических значений результата (
y
i
) от теоретических
)y
~
(
i
минимизиру-
ется. Так, (2.1) описывает исходное условие МНК для парной линейной
корреляционной связи:
∑
=
→
n
1i
min )y
~
- (y
2
ii
,
или (2.1)
f (а
0
, a
1
) =
∑
=
→ )] +
0
n
1i
min xa(a - [y
2
i1i
.
На основе (2.1) определяются частные производные функции
f(а
0
, a
1
),
которые затем приравниваются к 0. Далее полученные уравнения преобра-
зуются в систему нормальных уравнений, из которых определяются пара-
метры
а
0
, a
1
. При этом число нормальных уравнений в общем случае будет
равно числу параметров. При использовании СПП параметры регрессион-
ного уравнения определяются автоматически. Подробнее МНК изложен в
[6, 7].
Парная корреляция характеризует тесноту и направленность связи ме-
жду результативным и факторным признаками. Парная регрессия позволя-
ет описать форму связи в виде уравнения парной регрессии (табл.2).
Таблица 2
Основные виды уравнений парной регрессии
Наименование формы парной регрессии Вид уравнения парной регрессии
Линейная ~
y = а0 + a1x
Гиперболическая ~
y = а0 + a1 (1/x)
Параболическая ~
y = а0 + a1x + a2x2
Степенная ~
y = а0 x a1
В данной таблице ~
y теоретическое значение результативного признака (y)
при определенном значении факторного признака (x), подставленном в регрес-
сионное уравнение; а0 свободный член уравнения; a1, a2 коэффициенты рег-
рессии.
Параметры уравнений парной регрессии a1, a2 называют коэффициен-
тами регрессии. Для оценки параметров уравнения парной регрессии ис-
пользуется метод наименьших квадратов (МНК). Он заключается в опре-
делении параметров а0, a1, a2, при которых сумма квадратов отклонений
фактических значений результата (yi) от теоретических (~
y i ) минимизиру-
ется. Так, (2.1) описывает исходное условие МНК для парной линейной
корреляционной связи:
n
∑ (y i - ~
y i ) 2 → min ,
i =1
или (2.1)
n 2
f (а0, a1) = ∑ [y i - (a 0 + a 1x i )] → min .
i =1
На основе (2.1) определяются частные производные функции f(а0, a1),
которые затем приравниваются к 0. Далее полученные уравнения преобра-
зуются в систему нормальных уравнений, из которых определяются пара-
метры а0, a1. При этом число нормальных уравнений в общем случае будет
равно числу параметров. При использовании СПП параметры регрессион-
ного уравнения определяются автоматически. Подробнее МНК изложен в
[6, 7].
10
Страницы
- « первая
- ‹ предыдущая
- …
- 9
- 10
- 11
- 12
- 13
- …
- следующая ›
- последняя »
