Мультимедиатехнологии в информационных системах. Методы сжатия и форматы записи графической информации. Красильников Н.Н - 6 стр.

UptoLike

6
Согласно Шеннону, энтропия является мерой, устанавливающей сред-
нее количество информации на символ сообщения (в данном случае на
растровый элемент изображения). Для последовательности из m стати-
стически независимых символов, появляющихся с вероятностями p
i
,
энтропия выражается в следующем виде:
2
1
,
log
m
ii
i
Hpp
=
=−
(1.1)
где
2
log
– двоичный логарифм; i – номер символа.
Если вероятность появления некоторого символа сообщения равна
единице, а остальных – нулю, то есть неопределенность появления дан-
ного символа отсутствует, энтропия будет равна нулю. Когда вероятно-
сти появления всех символов одинаковы
1
,
i
p
m
=
энтропия достигает своего максимального значения, равного
max
2
1
11
.
log
m
i
H
=
=−
Сопоставляя найденное значение энтропии с ее максимальным зна-
чением, определяют величину избыточности сигнала следующим обра-
зом:
max
1.
H
R
H
=−
(1.2)
В том случае, когда вероятности появления всех символов одинаковы
1
,
i
p
m
=
избыточность, как это ясно из изложенного, отсутствует.
Коэффициент, показывающий, во сколько раз можно уменьшить чис-
ло двоичных единиц кода, требующихся для представления сообщений
источника с энтропией H (в рассматриваемом случае изображения), по
сравнению со случаем, когда при том же наборе символов все символы
источника сообщения кодируются словами одинаковой длины, называ-
ется коэффициентом сжатия