ВУЗ:
Составители:
Рубрика:
Покажем , что это, действительно, так. Прежде всего заметим, что в си-
лу равенства потерь нулю при
j
i
=
, т.е.
(
)
0=iiс можно записать
()() ()
∑∑∑∑
≠
====
==
m
ij
j
m
i
i
m
j
m
i
i
ijPijPijcC
1111
ππ . (3.7)
Далее, учитывая что
()
1)(
1
=+
∑
≠
=
iiPijP
m
ij
j
и 1
1
=
∑
=
m
i
i
π ,
из (3.7) получаем
()() ()
∑∑
==
−=−=
m
i
i
m
i
i
iiPiiPС
11
11 ππ
. (3.8)
Таким образом , задача минимизации потерь от неправильной класси-
фикации сводится к задаче максимизации вероятности правильной класси-
фикации
()
∑
=
=
m
i
i
iiPP
1
π
. (3.9)
Если в качестве критерия использовать вероятность правильной клас-
сификации объектов (3.8), то задачу построения оптимальной процедуры
классификации многомерных наблюдений можно сформулировать сле-
дующим образом . Заданы
p
- мерные наблюдения
n
xxx ,,,
21
K ,
представляющие собой выборку из генеральной совокупности, описывае-
мой так называемой смесью
m
классов (одномодальных генеральных сово-
купностей) с плотностью вероятности
()()
∑
=
=
m
j
jj
ff
1
xx π , (3.10)
где
j
π
– априорная вероятность появления в этой выборке элемента из
класса (генеральной совокупности)
j
с плотностью
(
)
x
j
f . Другими слова-
ми,
j
π
– это удельный вес элементов
j
- го класса в общей генеральной
совокупности.
По-прежнему считая, что потери
(
)
ijс от неправильной классифика -
ции одинаковы для любой пары
i
,
j
, можно задачу классификации, т.е.
отнесение наблюдения (объекта) неизвестной принадлежности
ν
x к классу
с номером
∗
j , записать как
(
)
(
)
νν
π
π
xx
jj
mj
jj
ff
≤≤
=
∗∗
1
max . (3.11)
Полученное правило классификации (3.11) не может быть использова-
но на практике, так как неизвестны априорные вероятности
m
π
π
π
,,,
21
K
и
П ока ж ем , что это, д ейст вител ь н о, т а к. П реж д е всего за м ет им , что в си-
л у ра вен ства пот ерь н у л ю при i = j , т .е. с(i i ) = 0 м ож н о за писа т ь
C = ∑ π i ∑ c ( j i ) P ( j i ) = ∑ π i ∑ P ( j i ).
m m m m
(3.7)
i =1 j =1 i =1 j =1
j ≠i
Д а л ее, у чит ыва я что
∑ P( j i ) + P(i i ) = 1
m m
и ∑ π i = 1,
j =1 i =1
j ≠i
из (3.7) пол у ча ем
С = ∑ π i (1 − P (i i )) = 1 −∑ π i P (i i ).
m m
(3.8)
i =1 i =1
Т а ким обра зом , за д а ча м ин им иза ции пот ерь от н епра вил ь н ой кл а сси-
ф ика ции свод ит ся к за д а че м а ксим иза ции вероят н ост и пра вил ь н ой кл а сси-
ф ика ции
P = ∑ π i P(i i ).
m
(3.9)
i =1
Е сл и в ка чест ве крит ерия испол ь зова т ь вероят н ост ь пра вил ь н ой кл а с-
сиф ика ции объект ов (3.8), то за д а чу пост роен ия опт им а л ь н ой процед у ры
кл а ссиф ика ции м н огом ерн ых н а бл юд ен ий м ож н о сф орм у л ирова т ь сл е-
д у ющ им обра зом . З а д а н ы p -м ерн ые н а бл юд ен ия
x1 , x 2 , K , x n ,
пред ст а вл яющ ие собой выборку из ген ера л ь н ой совоку пн ост и, описыва е-
м ой т а к н а зыва ем ой см есь ю m кл а ссов (од н ом од а л ь н ых ген ера л ь н ых сово-
ку пн ост ей) с пл от н ость ю вероят н ост и
m
f (x ) = ∑ π j f j (x ) , (3.10)
j =1
гд е π j – а приорн а я вероят н ост ь появл ен ия в эт ой выборке эл ем ен т а из
кл а сса (ген ера л ь н ой совоку пн ост и) j с пл от н ость ю f j (x ) . Д ру гим и сл ова -
м и, π j – это у д ел ь н ый вес эл ем ен т ов j -го кл а сса в общ ей ген ера л ь н ой
совоку пн ост и.
П о-преж н ем у счит а я, чт о пот ери с( j i ) от н епра вил ь н ой кл а ссиф ика -
ции од ин а ковы д л я л юбой па ры i , j , м ож н о за д а чу кл а ссиф ика ции, т .е.
от н есен ие н а бл юд ен ия (объект а ) н еизвест н ой прин а д л еж н ост и xν к кл а ссу
с н ом ером j ∗ , за писа т ь ка к
π j ∗ f j∗ (xν ) = max π j f j (xν ) . (3.11)
1≤ j ≤m
П ол у чен н ое пра вил о кл а ссиф ика ции (3.11) н е м ож ет быт ь испол ь зова -
н о н а пра кт ике, т а к ка к н еизвест н ы а приорн ые вероят н ост и π 1 , π 2 , K , π m и
Страницы
- « первая
- ‹ предыдущая
- …
- 18
- 19
- 20
- 21
- 22
- …
- следующая ›
- последняя »
