Составители:
Рубрика:
6
Согласно Шеннону, энтропия является мерой, устанавливающей сред-
нее количество информации на символ сообщения (в данном случае на
растровый элемент изображения). Для последовательности из m стати-
стически независимых символов, появляющихся с вероятностями p
i
,
энтропия выражается в следующем виде:
2
1
,
log
m
ii
i
Hpp
=
=−
∑
(1.1)
где
2
log
– двоичный логарифм; i – номер символа.
Если вероятность появления некоторого символа сообщения равна
единице, а остальных – нулю, то есть неопределенность появления дан-
ного символа отсутствует, энтропия будет равна нулю. Когда вероятно-
сти появления всех символов одинаковы
1
,
i
p
m
=
энтропия достигает своего максимального значения, равного
max
2
1
11
.
log
m
i
H
mm
=
=−
∑
Сопоставляя найденное значение энтропии с ее максимальным зна-
чением, определяют величину избыточности сигнала следующим обра-
зом:
max
1.
H
R
H
=−
(1.2)
В том случае, когда вероятности появления всех символов одинаковы
1
,
i
p
m
=
избыточность, как это ясно из изложенного, отсутствует.
Коэффициент, показывающий, во сколько раз можно уменьшить чис-
ло двоичных единиц кода, требующихся для представления сообщений
источника с энтропией H (в рассматриваемом случае изображения), по
сравнению со случаем, когда при том же наборе символов все символы
источника сообщения кодируются словами одинаковой длины, называ-
ется коэффициентом сжатия
Страницы
- « первая
- ‹ предыдущая
- …
- 4
- 5
- 6
- 7
- 8
- …
- следующая ›
- последняя »