Математическая статистика. Крашенинников В.Р - 23 стр.

UptoLike

- 23 -
где m
x
и m
y
математические ожидания X и Y;
2
x
σ
и
2
y
σ дисперсии X и Y,
ρ =
x
y
x
y
K
σσ
; K
xy
= M[xy] – m
x
m
y
= M[(x – m
x
)(y – m
x
)]. (1.43)
Таким образом, уравнением линейной среднеквадратической регрессии
Y и X будет:
y = ρ
y
x
σ
σ
(x – m
x
) + m
y
. (1.44)
Аналогично, из условия минимума:
M[(α⋅Y + β – X)
2
] (1.45)
можно получить уравнение линейной среднеквадратической регрессии
X на Y:
x = ρ
x
y
σ
σ
(y – m
y
) + m
x
. (1.46)
Отметим, что (1.46) не получается разрешением уравнение (1.44)
относительно x. Поэтому выражения (1.44) и (1.46) определяют, вообще говоря,
разные прямые. Объясняется это тем, что в выражении (1.41) расстояние между
Y и aX + b измеряются вдоль оси Y, то есть по вертикали, а в выражении
(1.45) расстояние между
Х и αY + β измеряется вдоль оси х, то есть по
горизонтали.
Число
К
xy
в выражении (1.43) называется ковариацией случайных
величин
X и Y, а число ρ =
(
)
x
y
x
y
K σσ их коэффициентом корреляции.
Отметим, что для любой системы случайных величин коэффициент корреляции
удовлетворяет соотношению
–1 ρ 1 и служит мерой линейной связи
между
Х и Y.
Если ρ
= 0, то Х и Y называются некоррелированными. В частности,
некоррелированными являются независимые случайные величины. При ρ
= 0
из выражений (1.44) и (1.46) получаем
y = m
y
и x = m
x
, то есть эти уравнения
показывают, что линейной зависимости (даже приближенной) между X и Y нет.
Напротив, если ρ
= ± 1, то уравнения (1.44) и (1.46) выражают точную (не
приближенную) зависимость. В этом случае мы имеем жёсткую линейную
связь между
Х и Y и все точки будут лежать на одной прямой. Остальные
случаи являются промежуточными. Чем ближе
|ρ| к единице, тем более
выражена линейная связь между
X и Y. Если ρ > 0, то угловой коэффициент в
уравнении прямых регрессии положителен. Это означает, что с ростом одной из
величин и другая в среднем увеличивается. Говорят, что между
X и Y
корреляция положительна
. Соответственно, при отрицательной корреляции