Теория вероятностей и математическая статистика. Соппа М.С - 17 стр.

UptoLike

Составители: 

35
луширину такой окрестности M(N(a,
σ
)), чтобы вероятность от-
клонения от нее не превышала полпроцента (была очень мала).
Установлено, что этот радиус равен примерно
σ
3
:
Р({а
σ
3 < N(a,
σ
) < а +
σ
3 }) = Ф(( а +
σ
3 а)/
σ
)
Ф(( а
σ
3 а)/
σ
) = Ф(3) – Ф(–3) = 2Ф(3)
2·0.499 = 0.998.
Иногда этим свойством пользуются в обратном смысле: ес-
ли подавляющая часть значений исследуемой случайной вели-
чины локализуется в трехсигмовой окрестности математическо-
го ожидания, то делается вывод, что эта случайная величина
имеет нормальное распределение.
Независимость случайных величин.
Коэффициент корреляции
Случайные величины Х и Y называются независимыми, тогда
и только тогда, когда случайные события {
Х = х
i
} и {Y = y
j
} при
любых
i и j являются независимыми. Согласно ранее данному
определению это эквивалентно тому, что при любых
i и j веро-
ятность события {
Х = х
i
} не зависит от того, произошло ли со-
бытие {
Y = y
j
} и наоборот. Другими словами, независимые слу-
чайные величины
Х и Y не могут влиять друг на друга, взаимо-
влияние отсутствует. В свою очередь, между зависимыми слу-
чайными величинами обязательно существует взаимосвязь, го-
ворят, что они в этом случае влияют друг на друга. Пусть, на-
пример,
Х число курильщиков по данным из ряда регионов, а
Y число зарегистрированных в этих регионах больных раком
легких и туберкулезом. Очевидно, эти случайные величины бу-
дут связаны между собой (положительное взаимовлияниие:
если
Х растет, то и Y растет). Бывает и отрицательная взаимо-
связь: например, при повышении
Хцены, устанавливаемой на
товар, как правило, уменьшается величина
Y – эффективный
спрос на него.
Система случайных величин (
Х, Y) полностью определяется
своим двумерным законом распределения. Для дискретных слу-
чайных величин закон распределения представляет собой корре-
ляционную таблицу следующего вида:
36
Здесь
р
ij
не условные вероятности, а вероятности произве-
дений событий {
Х = х
i
} и {Y = y
j
}. Из корреляционной таблицы
получаются законы распределения компонент:
суммированием по строкам:
Р({Х = х
i
}) =
=
m
j
ij
p
1
, i = 1, ..., n; (4)
суммированием по столбцам:
Р({Y = y
j
}) =
=
n
i
ij
p
1
, j = 1, ..., m. (5)
Количественной мерой взаимосвязи различных случайных
величин является коэффициент корреляции
xy
r . Он определяет-
ся и вычисляется по формуле:
xy
r = (М(Х·Y)М(Х)·М(Y))/ )()( YDXD . (6)
Значения
М(Х), D(Х) и М(Y), D(Y) уже определены и вычис-
лялись ранее. Числитель дроби, равный математическому ожи-
данию произведения отклонений случайных величин от своих
математических ожиданий, называется корреляционным момен-
том и вычисляется с помощью двумерного закона распределения
или корреляционной таблицы, если речь идет о дискретных слу-
чайных величинах.
Y
Х
у
1
у
2
... у
m
х
1
(х
1
, у
1
)
р
11
(х
1
, у
2
)
р
12
(х
1
, у
m
)
р
1m
х
2
(х
2
, у
1
) (х
2
, у
2
)
р
22
(х
2
, у
m
)
...
х
n
(х
n
, у
1
) (х
n
, у
2
)
р
n2
(х
n
, у
m
)
р
nm
луширину такой окрестности M(N(a, σ )), чтобы вероятность от-
клонения от нее не превышала полпроцента (была очень мала).                    Y       у1                  у2         ...        уm
Установлено, что этот радиус равен примерно 3σ :                         Х
    Р({а – 3σ < N(a, σ ) < а + 3σ }) = Ф(( а + 3σ –а)/ σ ) –                 х1    (х1, у1)     (х1, у2)                    (х1, уm)
– Ф(( а – 3σ –а)/ σ ) = Ф(3) – Ф(–3) = 2Ф(3) ≅ 2·0.499 = 0.998.                           р11                   р12                    р1m
    Иногда этим свойством пользуются в обратном смысле: ес-                  х2    (х2, у1)     (х2, у2)                    (х2, уm)
ли подавляющая часть значений исследуемой случайной вели-                                                       р22
чины локализуется в трехсигмовой окрестности математическо-                  ...
го ожидания, то делается вывод, что эта случайная величина                   хn    (хn, у1)     (хn, у2)                    (хn, уm)
имеет нормальное распределение.                                                                                 рn2                    рnm
              Независимость случайных величин.
                  Коэффициент корреляции                              Здесь рij – не условные вероятности, а вероятности произве-
    Случайные величины Х и Y называются независимыми, тогда       дений событий {Х = хi} и {Y = yj}. Из корреляционной таблицы
и только тогда, когда случайные события {Х = хi} и {Y = yj} при   получаются законы распределения компонент:
любых i и j являются независимыми. Согласно ранее данному             – суммированием по строкам:
                                                                                                      m
определению это эквивалентно тому, что при любых i и j веро-
ятность события {Х = хi} не зависит от того, произошло ли со-
                                                                                    Р({Х = хi}) =    ∑ pij , i = 1, ..., n;                  (4)
                                                                                                     j =1
бытие {Y = yj} и наоборот. Другими словами, независимые слу-
                                                                      – суммированием по столбцам:
чайные величины Х и Y не могут влиять друг на друга, взаимо-                                         n
влияние отсутствует. В свою очередь, между зависимыми слу-
чайными величинами обязательно существует взаимосвязь, го-
                                                                                   Р({Y = yj}) =    ∑ pij , j = 1, ..., m.                   (5)
                                                                                                    i =1
ворят, что они в этом случае влияют друг на друга. Пусть, на-        Количественной мерой взаимосвязи различных случайных
пример, Х – число курильщиков по данным из ряда регионов, а       величин является коэффициент корреляции rxy . Он определяет-
Y – число зарегистрированных в этих регионах больных раком
                                                                  ся и вычисляется по формуле:
легких и туберкулезом. Очевидно, эти случайные величины бу-
дут связаны между собой (положительное взаимовлияниие:                        rxy = (М(Х·Y) – М(Х)·М(Y))/             D( X ) D(Y ) .         (6)
если Х растет, то и Y растет). Бывает и отрицательная взаимо-         Значения М(Х), D(Х) и М(Y), D(Y) уже определены и вычис-
связь: например, при повышении Х – цены, устанавливаемой на       лялись ранее. Числитель дроби, равный математическому ожи-
товар, как правило, уменьшается величина Y – эффективный          данию произведения отклонений случайных величин от своих
спрос на него.                                                    математических ожиданий, называется корреляционным момен-
    Система случайных величин (Х, Y) полностью определяется       том и вычисляется с помощью двумерного закона распределения
своим двумерным законом распределения. Для дискретных слу-        или корреляционной таблицы, если речь идет о дискретных слу-
чайных величин закон распределения представляет собой корре-      чайных величинах.
ляционную таблицу следующего вида:

                              35                                                                      36