Статистическое введение в распределенные вычислительные системы: статистика. Пархоменко А.В. - 11 стр.

UptoLike

Составители: 

Рубрика: 

Применяя выборочный метод в статистике, обычно используют два основных вида обобщающих показателей: среднюю
величину количественного признака и относительную величину альтернативного признака.
Выборочная доля (w), или частость, определяется отношением числа единиц, обладающих изучаемым признаком т, к
общему числу единиц выборочной совокупности n.
Для характеристики надежности выборочных показателей различают среднюю и предельную ошибки выборки.
Ошибка выборочного наблюденияэто разность между величиной параметра в генеральной совокупности и его вели-
чиной, вычисленной по результатам выборочного наблюдения:
для среднего значения ошибка будет определяться так:
xx
x
~
~
=
;
для доли (альтернативного признака)
pw
w
=
.
Предельная ошибка выборки (
x
~
) и средняя ошибка (
x
~
µ
) связаны следующим соотношением:
xx
t
~~
µ
=
.
Расчет средней и предельной ошибок выборки позволяет определить возможные пределы, в которых будут находиться
характеристики генеральной совокупности
для средней
xx
xxx
~~
~
~
+
или
x
xx
~
~
±= ;
для доли
ww
wpw + или
w
wp ±= .
Это означает, что с заданной вероятностью можно утверждать, что значение генеральной средней следует ожидать в
пределах от
х
х
~
~
до
х
х
~
~
+ .
Аналогичным образом может быть записан доверительный интервал генеральной доли:
w
w до
w
w
+ .
Статистическое изучение взаимосвязи социально-экономических явлений
Наиболее разработанной в теории статистики является методология так называемой парной корреляции, рассматри-
вающая влияние вариации факторного признака Х на результативный Y. Овладение теорией и практикой парной корреляции
представляет исходный этап познания других приемов и методов изучения корреляционной связи.
В основу выявления и установления аналитической формы связи положено применение в анализе исходной информа-
ции математических функций. При изучении связи показателей применяются различного вида уравнения прямолинейной и
криволинейной связи:
а) линейная регрессия, выражается уравнением прямой вида:
хааY
х 10
+=
;
б) нелинейная регрессия, выражается уравнениями вида:
парабола
2
2
1
0
хахааY
х
++=
;
гипербола
х
а
аY
х
1
0
+=
и т.д.,
где
х
Y
теоретические значения результативного признака, полученные по уравнению регрессии; а0, а1 – коэффициенты
(параметры) уравнения регрессии.
В уравнениях регрессии параметр а0 показывает усредненное влияние на результативный признак неучтенных (не вы-
деленных для исследования) факторов; параметр а1 (а в уравнении параболы и а2) – коэффициент регрессии показывает,
насколько изменяется в среднем значение результативного признака при увеличении факторного на единицу собственного
измерения.
Параметры уравнения а0, а1 находят методом наименьших квадратов (метод решения систем уравнений, при котором в
качестве решения принимается точка минимума суммы квадратов отклонений), т.е. в основу этого метода положено требо-
вание минимальности сумм квадратов отклонений эмпирических данных уi от выровненных
у
:
S =
min)(
2
хi
YY
.
Для прямой зависимости:
S =
min)(
2
10 ii
хаау .
Для нахождения минимума данной функции приравняем к нулю ее частные производные и получим систему двух ли-
нейных уравнений, которая называется системой нормальных уравнений:
=+
=+
,
;
2
10
10
xyxaxa
yxana
где nобъем исследуемой совокупности (число единиц наблюдений).
Значимость коэффициентов простой линейной регрессии (применительно к совокупностям, у которых п < 30) осущест-
вляют с помощью t-критерия Стьюдента. При этом вычисляют расчетные (фактические) значения t-критерия: