Составители:
Рубрика:
10
Парная корреляция характеризует тесноту и направленность связи ме-
жду результативным и факторным признаками. Парная регрессия позволя-
ет описать форму связи в виде уравнения парной регрессии (табл.2).
Таблица 2
Основные виды уравнений парной регрессии
Наименование формы парной регрессии Вид уравнения парной регрессии
Линейная
y
~
= а
0
+ a
1
x
Гиперболическая
y
~
= а
0
+ a
1
(1/x)
Параболическая
y
~
= а
0
+ a
1
x + a
2
x
2
Степенная
y
~
= а
0
x
a1
В данной таблице
y
~
– теоретическое значение результативного признака (y)
при определенном значении факторного признака (x), подставленном в регрес-
сионное уравнение; а
0
– свободный член уравнения; a
1,
a
2
– коэффициенты рег-
рессии.
Параметры уравнений парной регрессии
a
1
,
a
2
называют коэффициен-
тами регрессии
. Для оценки параметров уравнения парной регрессии ис-
пользуется метод наименьших квадратов (МНК). Он заключается в опре-
делении параметров
а
0
, a
1
,
a
2
, при которых сумма квадратов отклонений
фактических значений результата (
y
i
) от теоретических
)y
~
(
i
минимизиру-
ется. Так, (2.1) описывает исходное условие МНК для парной линейной
корреляционной связи:
∑
=
→
n
1i
min )y
~
- (y
2
ii
,
или (2.1)
f (а
0
, a
1
) =
∑
=
→ )] +
0
n
1i
min xa(a - [y
2
i1i
.
На основе (2.1) определяются частные производные функции
f(а
0
, a
1
),
которые затем приравниваются к 0. Далее полученные уравнения преобра-
зуются в систему нормальных уравнений, из которых определяются пара-
метры
а
0
, a
1
. При этом число нормальных уравнений в общем случае будет
равно числу параметров. При использовании СПП параметры регрессион-
ного уравнения определяются автоматически. Подробнее МНК изложен в
[6, 7].
Парная корреляция характеризует тесноту и направленность связи ме- жду результативным и факторным признаками. Парная регрессия позволя- ет описать форму связи в виде уравнения парной регрессии (табл.2). Таблица 2 Основные виды уравнений парной регрессии Наименование формы парной регрессии Вид уравнения парной регрессии Линейная ~ y = а0 + a1x Гиперболическая ~ y = а0 + a1 (1/x) Параболическая ~ y = а0 + a1x + a2x2 Степенная ~ y = а0 x a1 В данной таблице ~ y теоретическое значение результативного признака (y) при определенном значении факторного признака (x), подставленном в регрес- сионное уравнение; а0 свободный член уравнения; a1, a2 коэффициенты рег- рессии. Параметры уравнений парной регрессии a1, a2 называют коэффициен- тами регрессии. Для оценки параметров уравнения парной регрессии ис- пользуется метод наименьших квадратов (МНК). Он заключается в опре- делении параметров а0, a1, a2, при которых сумма квадратов отклонений фактических значений результата (yi) от теоретических (~ y i ) минимизиру- ется. Так, (2.1) описывает исходное условие МНК для парной линейной корреляционной связи: n ∑ (y i - ~ y i ) 2 → min , i =1 или (2.1) n 2 f (а0, a1) = ∑ [y i - (a 0 + a 1x i )] → min . i =1 На основе (2.1) определяются частные производные функции f(а0, a1), которые затем приравниваются к 0. Далее полученные уравнения преобра- зуются в систему нормальных уравнений, из которых определяются пара- метры а0, a1. При этом число нормальных уравнений в общем случае будет равно числу параметров. При использовании СПП параметры регрессион- ного уравнения определяются автоматически. Подробнее МНК изложен в [6, 7]. 10
Страницы
- « первая
- ‹ предыдущая
- …
- 9
- 10
- 11
- 12
- 13
- …
- следующая ›
- последняя »