Компьютерные решения задач многомерной статистики. Часть 1. Кластерный и дискриминантный анализ. Давнис В.В - 21 стр.

UptoLike

Рубрика: 

законы распределения вероятности
(
)
(
)
(
)
xxx
m
fff ,,,
21
K . В рамках стати-
стического подхода, используемого для решения этой задачи, рекомендует -
ся неизвестные величины заменить соответствующими оценками,
полученными на базе обучающих выборок.
Оценки априорных вероятностей
j
π
(
m
j
,
,
2
,
1
K
=
) получают сле-
дующим образом. Полагают, что объединение всех обучающих совокупно-
стей образует выборку объема
m
nnnn
+
+
+
=
L
21
из генеральной сово-
купности с законом распределения вероятностей (3.10). Тогда оценка полу-
чается как частное от деления объема
j
-ой обучающей выборки
j
n на
n
n
n
j
j
=π
ˆ
(3.12)
В некоторых ситуациях величины
j
π
определяются априори содержатель-
ным смыслом решаемой задачи или экспертами.
Введем понятие дискриминантной функции. Под дискриминантной
функцией будем понимать решающее правило, с помощью которого объект
неизвестной принадлежности относится к одному из классов, описываемых
соответствующим законом распределения вероятностей. Дискриминантная
функция играет важную роль в параметрическом дискриминантном анали-
зе . Ниже рассматривается схема построения линейной дискриминантной
функции. Эта схема реализуется в том случае, когда каждый класс иденти-
фицируется генеральной совокупностью с нормальным законом распреде-
ления. Фактически, в рассматриваемой ситуации в качестве функций
)( x
j
f
используются
р
-мерные нормальные плотности
)()(
1
2
1
2
1
2
1
),,(
Σ−−
Σ
jj
e
j
xxxx
xx
π
ϕ , (3.13)
где ),,,(
21 jpjj
xxx K
=
x вектор-строка средних значений
j
-го класса ;
Σ
ковариационная матрица одинаковая для всех классов.
Таким образом , рассматриваемый случай в точности соответствует
случаю параметрической дискриминации. Закон распределения вероятно-
стей одного класса отличается от закона распределения другого класса
только параметрами (средними значениями)
Чтобы воспользоваться критерием (3.11), необходимо неизвестные па -
раметры
j
x
и
Σ
заменить оценками, которые легко определяются по дан-
ным обучающей выборки с помощью метода максимального правдоподо-
бия. В случае нормального распределения эти оценки вычисляются по фор-
мулам
=
=
k
n
i
k
ij
k
k
j
x
n
1
)()(
1
ˆ
x
, (3.14)
за кон ы ра спред ел ен ия вероят н ост и f1 (x ), f 2 (x ), K , f m (x ). В ра м ка х ст а т и-
ст ического под ход а , испол ь зу ем ого д л я реш ен ия эт ой за д а чи, реком ен д у ет -
ся н еизвест н ые вел ичин ы за м ен ить соот вет ст ву ющ им и оцен ка м и,
пол у чен н ым и н а ба зе обу ча ющ их выборок.
      О цен ки а приорн ых вероят н ост ей π j ( j = 1, 2, K , m ) пол у ча ют сл е-
д у ющ им обра зом . П ол а га ют , чт о объед ин ен ие всех обу ча ющ их совоку пн о-
ст ей обра зу ет выборку объем а n = n1 + n2 + L + nm из ген ера л ь н ой сово-
ку пн ост и с за кон ом ра спред ел ен ия вероят н ост ей (3.10). Т огд а оцен ка пол у -
ча ется ка к ча ст н ое от д ел ен ия объем а j -ой обу ча ющ ей выборки n j н а n
                                                               nj
                                                πˆj =                                                         (3.12)
                                                               n
В н екот орых сит у а циях вел ичин ы π j опред ел яют ся а приори сод ерж а тел ь -
н ым см ысл ом реш а ем ой за д а чи ил и эксперт а м и.
       В вед ем пон ят ие д искрим ин а н т н ой ф у н кции. П од ди скри м и н ан тн ой
фун кци ей бу д ем пон им а т ь реш а ющ ее пра вил о, с пом ощ ь ю кот орого объект
н еизвест н ой прин а д л еж н ост и от н осит ся к од н ом у из кл а ссов, описыва ем ых
соответ ст ву ющ им за кон ом ра спред ел ен ия вероят н ост ей. Д искрим ин а н т н а я
ф у н кция игра ет ва ж н у ю рол ь в па ра м ет рическом д искрим ин а н т н ом а н а л и-
зе. Н иж е ра ссм а трива ет ся схем а пост роен ия л и н е й н ой ди скри м и н ан тн ой
фун кци и . Э т а схем а реа л изу ет ся в том сл у ча е, когд а ка ж д ый кл а сс ид ен т и-
ф ициру ет ся ген ера л ь н ой совоку пн ост ь ю с н орм ал ьн ы м за кон ом ра спред е-
л ен ия. Ф а кт ически, в ра ссм а трива ем ой сит у а ции в ка чест ве ф у н кций f j (x)
испол ь зу ют ся р -м ерн ые н орм а л ь н ые пл отн ост и
                                                    1              − 12 ( x − x j ) Σ −1 ( x − x j ) ′
                        ϕ (x, x j , Σ) =                   1   e                                         ,   (3.13)
                                               2π Σ        2


гд е x = ( x j1 , x j 2 , K , x jp ) – вектор-ст рока сред н их зн а чен ий j -го кл а сса ;
       Σ –кова риа цион н а я м а т рица од ин а кова я д л я всех кл а ссов.
       Т а ким обра зом , ра ссм а т рива ем ый сл у ча й в т очн ост и соот вет ству ет
сл у ча ю па ра м етрической д искрим ин а ции. З а кон ра спред ел ен ия вероят н о-
ст ей од н ого кл а сса от л ича ется от за кон а ра спред ел ен ия д ру гого кл а сса
т ол ь ко па ра м ет ра м и (сред н им и зн а чен иям и)
       Ч т обы воспол ь зова т ь ся крит ерием (3.11), н еобход им о н еизвест н ые па -
ра м етры x j и Σ за м ен ит ь оцен ка м и, которые л егко опред ел яют ся по д а н -
н ым обу ча ющ ей выборки с пом ощ ь ю м ет од а м а ксим а л ь н ого пра вд опод о-
бия. В сл у ча е н орм а л ь н ого ра спред ел ен ия эт и оцен ки вычисл яют ся по ф ор-
му л а м
                                                    nk
                                               1
                                 x̂   (k )
                                      j      =      ∑ xij( k ) ,                                              (3.14)
                                               nk   i =1