Математика (Статистика, корреляция и регрессия). Кислов К.К. - 6 стр.

UptoLike

Составители: 

Корреляционный момент K
xy
характеризует помимо рассеивания величин X
и Y еще и связь между ними. Если
0
xy
K
, то это является признаком наличия
зависимости между X и Y.
Из K
xy
=M[(X-m
x
)(Y-m
y)
] видно, что К
xy
корреляционный момент
характеризует не только зависимость величин, но и их рассеивание.
Действительно, если, например, одна из величин (X,Y) весьма мало отклоняется
от своего математического ожидания (почти не случайна), то корреляционный
момент будет мал, какой бы тесной зависимостью ни были связаны величины X и
Y. Поэтому для характеристики связи X и Y в чистом виде применяется
коэффициент корреляции
yx
xy
K
r
σσ
=
,
который является безразмерной величиной и может принимать значения от -1 до
+1. Здесь
][
xD
x
=
σ
и
][
yD
y
=
σ
- средние квадратические отклонения величин
X и Y.
Для независимых случайных величин коэффициент корреляции равен нулю.
Случайные величины, для которых r = 0 называются некоррелированными.
Некоррелированность случайных величин (r=0) системы (X,Y) не означает их
независимость. Могут быть случаи, когда некоррелированные случайные
величины будут зависимыми. Однако коррелируемость X и Y означает их
вероятностную зависимость.
Из условия зависимости случайных величин X и Y
)()/(
yfxyf
следует, что условное математическое ожидание случайной величины Y является
функцией значений
x
случайной величины X
)(]/[
xxYM
ϕ
=
,
которая называется регрессией Y на X.
График функции
)(]/[ yxYM
ϕ
=
называется кривой регрессии Y на X.
6
                                                       6
      Корреляционный момент Kxy характеризует помимо рассеивания величин X
и Y еще и связь между ними. Если K xy ≠ 0 , то это является признаком наличия
зависимости между X и Y.
      Из      Kxy=M[(X-mx)(Y-my)]              видно,       что            Кxy   корреляционный     момент
характеризует         не    только         зависимость        величин,           но   и   их   рассеивание.
Действительно, если, например, одна из величин (X,Y) весьма мало отклоняется
от своего математического ожидания (почти не случайна), то корреляционный
момент будет мал, какой бы тесной зависимостью ни были связаны величины X и
Y. Поэтому для характеристики связи X и Y в чистом виде применяется
коэффициент корреляции
                                                            K xy
                                                     r=                ,
                                                           σ xσ    y


который является безразмерной величиной и может принимать значения от -1 до

+1. Здесь σ   x   =   D[ x ] и σ   y   =   D[ y ] - средние квадратические отклонения величин

X и Y.
      Для независимых случайных величин коэффициент корреляции равен нулю.
      Случайные величины, для которых r = 0 называются некоррелированными.
Некоррелированность случайных величин (r=0) системы (X,Y) не означает их
независимость. Могут быть случаи, когда некоррелированные случайные
величины будут зависимыми. Однако коррелируемость X и Y означает их
вероятностную зависимость.
      Из условия зависимости случайных величин X и Y
                                                   f ( y / x) ≠ f ( y)

следует, что условное математическое ожидание случайной величины Y является
функцией значений x случайной величины X
                                              M [Y / x ] = ϕ ( x ) ,
которая называется регрессией Y на X.
      График функции M [Y / x] = ϕ ( y ) называется кривой регрессии Y на X.