Дискретная математика. Комбинаторика. Ерош И.Л. - 31 стр.

UptoLike

Составители: 

31
В 1948 году К. Шеннон (K. Shannon) обосновал целесообразность ис-
пользования количественной меры информации, что позволило ему сфор-
мулировать фундаментальную теорему о нахождении скорости переда-
чи информации по каналам связи, которую можно достичь при некото-
ром оптимальном методе кодирования и декодирования, обеспечив при
этом сколь угодно малую вероятность ошибки. Количественная мера
информации энтропия является мерой степени неопределенности слу-
чайной величины. Пусть некоторая случайная величина ξ принимает
значения x
1
, x
2
, …, x
n
с распределением вероятностей p
1
, p
2
, …, p
n
. В
этом случае энтропия случайной величины ξ определяется формулой
()
1
log
.
n
kk
k
HPP
=
ξ=
При передаче сообщений в каналах связи применяются различные
методы кодирования информации, которые строятся с использованием
комбинаторных методов.
Учет вероятностей ошибок типа 0 1 и 1 0 и энтропийная оценка
позволяют сравнивать различные методы кодирования и декодирова-
ния по достоверности получаемых сообщений.
2.6. Распознавание образов
При принятии решений и оценке их качества широко применяются
комбинаторные методы. При информационном поиске, нозологии (клас-
сификации болезней) и таксономии (классификации видов животных и
растений) широко применяются наборы двоичных признаков. При этом
каждый класс характеризуется некоторым двоичным вектором и обла-
стью изменения этого вектора, что в совокупности составляет клас-
тер. Расстояние между центрами кластеров, а также от классифициру-
емого вектора до центров всех кластеров определяется мерой сход-
ства, называемой мерой Танимото:
()
T
TTT
XY
LX,Y= ,
XY+YY-XY
где X, Y – двоичные векторы, X
T
, Y
T
– транспонированные векторы
(векторы-строки).
При вычислении признаков возможны ошибки, которые искажают
истинное значение вектора и могут привести к неверной классифика-