Составители:
Рубрика:
35
луширину такой окрестности M(N(a,
σ
)), чтобы вероятность от-
клонения от нее не превышала полпроцента (была очень мала).
Установлено, что этот радиус равен примерно
σ
3
:
Р({а –
σ
3 < N(a,
σ
) < а +
σ
3 }) = Ф(( а +
σ
3 –а)/
σ
) –
– Ф(( а –
σ
3 –а)/
σ
) = Ф(3) – Ф(–3) = 2Ф(3)
≅
2·0.499 = 0.998.
Иногда этим свойством пользуются в обратном смысле: ес-
ли подавляющая часть значений исследуемой случайной вели-
чины локализуется в трехсигмовой окрестности математическо-
го ожидания, то делается вывод, что эта случайная величина
имеет нормальное распределение.
Независимость случайных величин.
Коэффициент корреляции
Случайные величины Х и Y называются независимыми, тогда
и только тогда, когда случайные события {
Х = х
i
} и {Y = y
j
} при
любых
i и j являются независимыми. Согласно ранее данному
определению это эквивалентно тому, что при любых
i и j веро-
ятность события {
Х = х
i
} не зависит от того, произошло ли со-
бытие {
Y = y
j
} и наоборот. Другими словами, независимые слу-
чайные величины
Х и Y не могут влиять друг на друга, взаимо-
влияние отсутствует. В свою очередь, между зависимыми слу-
чайными величинами обязательно существует взаимосвязь, го-
ворят, что они в этом случае влияют друг на друга. Пусть, на-
пример,
Х – число курильщиков по данным из ряда регионов, а
Y – число зарегистрированных в этих регионах больных раком
легких и туберкулезом. Очевидно, эти случайные величины бу-
дут связаны между собой (положительное взаимовлияниие:
если
Х растет, то и Y растет). Бывает и отрицательная взаимо-
связь: например, при повышении
Х – цены, устанавливаемой на
товар, как правило, уменьшается величина
Y – эффективный
спрос на него.
Система случайных величин (
Х, Y) полностью определяется
своим двумерным законом распределения. Для дискретных слу-
чайных величин закон распределения представляет собой корре-
ляционную таблицу следующего вида:
36
Здесь
р
ij
– не условные вероятности, а вероятности произве-
дений событий {
Х = х
i
} и {Y = y
j
}. Из корреляционной таблицы
получаются законы распределения компонент:
– суммированием по строкам:
Р({Х = х
i
}) =
∑
=
m
j
ij
p
1
, i = 1, ..., n; (4)
– суммированием по столбцам:
Р({Y = y
j
}) =
∑
=
n
i
ij
p
1
, j = 1, ..., m. (5)
Количественной мерой взаимосвязи различных случайных
величин является коэффициент корреляции
xy
r . Он определяет-
ся и вычисляется по формуле:
xy
r = (М(Х·Y) – М(Х)·М(Y))/ )()( YDXD . (6)
Значения
М(Х), D(Х) и М(Y), D(Y) уже определены и вычис-
лялись ранее. Числитель дроби, равный математическому ожи-
данию произведения отклонений случайных величин от своих
математических ожиданий, называется корреляционным момен-
том и вычисляется с помощью двумерного закона распределения
или корреляционной таблицы, если речь идет о дискретных слу-
чайных величинах.
Y
Х
у
1
у
2
... у
m
х
1
(х
1
, у
1
)
р
11
(х
1
, у
2
)
р
12
(х
1
, у
m
)
р
1m
х
2
(х
2
, у
1
) (х
2
, у
2
)
р
22
(х
2
, у
m
)
...
х
n
(х
n
, у
1
) (х
n
, у
2
)
р
n2
(х
n
, у
m
)
р
nm
луширину такой окрестности M(N(a, σ )), чтобы вероятность от- клонения от нее не превышала полпроцента (была очень мала). Y у1 у2 ... уm Установлено, что этот радиус равен примерно 3σ : Х Р({а – 3σ < N(a, σ ) < а + 3σ }) = Ф(( а + 3σ –а)/ σ ) – х1 (х1, у1) (х1, у2) (х1, уm) – Ф(( а – 3σ –а)/ σ ) = Ф(3) – Ф(–3) = 2Ф(3) ≅ 2·0.499 = 0.998. р11 р12 р1m Иногда этим свойством пользуются в обратном смысле: ес- х2 (х2, у1) (х2, у2) (х2, уm) ли подавляющая часть значений исследуемой случайной вели- р22 чины локализуется в трехсигмовой окрестности математическо- ... го ожидания, то делается вывод, что эта случайная величина хn (хn, у1) (хn, у2) (хn, уm) имеет нормальное распределение. рn2 рnm Независимость случайных величин. Коэффициент корреляции Здесь рij – не условные вероятности, а вероятности произве- Случайные величины Х и Y называются независимыми, тогда дений событий {Х = хi} и {Y = yj}. Из корреляционной таблицы и только тогда, когда случайные события {Х = хi} и {Y = yj} при получаются законы распределения компонент: любых i и j являются независимыми. Согласно ранее данному – суммированием по строкам: m определению это эквивалентно тому, что при любых i и j веро- ятность события {Х = хi} не зависит от того, произошло ли со- Р({Х = хi}) = ∑ pij , i = 1, ..., n; (4) j =1 бытие {Y = yj} и наоборот. Другими словами, независимые слу- – суммированием по столбцам: чайные величины Х и Y не могут влиять друг на друга, взаимо- n влияние отсутствует. В свою очередь, между зависимыми слу- чайными величинами обязательно существует взаимосвязь, го- Р({Y = yj}) = ∑ pij , j = 1, ..., m. (5) i =1 ворят, что они в этом случае влияют друг на друга. Пусть, на- Количественной мерой взаимосвязи различных случайных пример, Х – число курильщиков по данным из ряда регионов, а величин является коэффициент корреляции rxy . Он определяет- Y – число зарегистрированных в этих регионах больных раком ся и вычисляется по формуле: легких и туберкулезом. Очевидно, эти случайные величины бу- дут связаны между собой (положительное взаимовлияниие: rxy = (М(Х·Y) – М(Х)·М(Y))/ D( X ) D(Y ) . (6) если Х растет, то и Y растет). Бывает и отрицательная взаимо- Значения М(Х), D(Х) и М(Y), D(Y) уже определены и вычис- связь: например, при повышении Х – цены, устанавливаемой на лялись ранее. Числитель дроби, равный математическому ожи- товар, как правило, уменьшается величина Y – эффективный данию произведения отклонений случайных величин от своих спрос на него. математических ожиданий, называется корреляционным момен- Система случайных величин (Х, Y) полностью определяется том и вычисляется с помощью двумерного закона распределения своим двумерным законом распределения. Для дискретных слу- или корреляционной таблицы, если речь идет о дискретных слу- чайных величин закон распределения представляет собой корре- чайных величинах. ляционную таблицу следующего вида: 35 36
Страницы
- « первая
- ‹ предыдущая
- …
- 15
- 16
- 17
- 18
- 19
- …
- следующая ›
- последняя »