Количественный анализ биологических данных. Малков П.Ю. - 44 стр.

UptoLike

Составители: 

43
0 20 40 60 80 100
m1
0
10
20
30
40
50
60
70
80
90
100
m4
Рис. 8. Пример отсутствия корреляции между переменными.
5.3. Коэффициент корреляции
Рассмотренные выше статистические зависимости называются
корреляциями. Корреляция может быть положительной (при
увеличении одной переменной увеличивается другая) и отрица-
тельной (увеличение одной переменной сопровождается уменьше-
нием другой). Обычно их труднее обнаружить, чем в приведенном
примере, кроме того, для объективности анализа желательно
иметь показатель степенисогласованностипеременных. В каче-
стве такой меры чаще всего используется линейный коэффици-
ент корреляции Пирсона (r). Он может принимать любые
значения в пределах от –1.00 (строго отрицательная корреляция)
до +1.00 (строго положительная корреляция). Коэффициент кор-
реляции определяется формулой:
=
22
)()(
))((
yx
yx
xy
MyMx
MyMx
r
. (5.1.)
Вычисление коэффициента корреляции непосредственно по
приведенной выше формуле трудоёмкая процедура. Существует
несколько более быстрых способов, использование которых, кро-
ме того, снижает риск сделать случайную ошибку [Бейли, 1962;
Плохинский, 1970; Лакин, 1990 и др.]. Алгоритм вычисления ко-
эффициентов корреляции заложен в компьютерных программах
(Microsoft Excel, STATISTICA, SPSS и мн. др.). Часть из них стали
практически общедоступными. Достоверность коэффициента кор-
реляции проще всего проверить по специальной таблице (прило-
жения табл. 4) [Фишер, 1958; Рокицкий, 1973; Терентьев,
Ростова, 1977; Лакин, 1990]. В этой таблице содержатся критиче-
ские значения r
st
для уровней достоверности P=0.95 и 0.99 с учё-
                 100

                 90

                 80

                 70


            m4   60

                 50

                 40

                 30

                 20

                 10

                  0
                       0               20          40            60     80     100
                                                            m1

Рис. 8. Пример отсутствия корреляции между переменными.

5.3. Коэффициент корреляции
   Рассмотренные выше статистические зависимости называются
корреляциями. Корреляция может быть положительной (при
увеличении одной переменной увеличивается другая) и отрица-
тельной (увеличение одной переменной сопровождается уменьше-
нием другой). Обычно их труднее обнаружить, чем в приведенном
примере, кроме того, для объективности анализа желательно
иметь показатель степени “согласованности” переменных. В каче-
стве такой меры чаще всего используется линейный коэффици-
ент корреляции Пирсона (r). Он может принимать любые
значения в пределах от –1.00 (строго отрицательная корреляция)
до +1.00 (строго положительная корреляция). Коэффициент кор-
реляции определяется формулой:

   rxy =
             ∑ (x − M           x   )( y − M y )        .             (5.1.)
           ∑ (x − M        x   ) ⋅ ∑(y − M y )
                                2                  2


   Вычисление коэффициента корреляции непосредственно по
приведенной выше формуле – трудоёмкая процедура. Существует
несколько более быстрых способов, использование которых, кро-
ме того, снижает риск сделать случайную ошибку [Бейли, 1962;
Плохинский, 1970; Лакин, 1990 и др.]. Алгоритм вычисления ко-
эффициентов корреляции заложен в компьютерных программах
(Microsoft Excel, STATISTICA, SPSS и мн. др.). Часть из них стали
практически общедоступными. Достоверность коэффициента кор-
реляции проще всего проверить по специальной таблице (прило-
жения табл. 4) [Фишер, 1958; Рокицкий, 1973; Терентьев,
Ростова, 1977; Лакин, 1990]. В этой таблице содержатся критиче-
ские значения rst для уровней достоверности P=0.95 и 0.99 с учё-
                                                        43