Составители:
Рубрика:
7
max
сж
.
H
k
H
=
(1.3)
До сих пор мы рассматривали случай, когда смежные растровые эле-
менты изображения были статистически независимы, то есть в каче-
стве изображения был выбран белый шум. Однако в реальных изобра-
жениях значения яркостей смежных пикселов взаимно коррелированы.
В этом случае, располагая значением сигнала, представляющего яркость
пиксела, можно с некоротой вероятностью предсказать значения сигна-
лов от соседних пикселов. Следовательно, информация, привносимая
последующим пикселом в случае знания предшествующего, будет мень-
ше, чем в случае, когда сигналы, представляющие значения яркости пик-
селов, были бы статистически независимы. Тогда величина энтропии
H должна рассчитываться по другой формуле:
() () ()
log ,
mm
ii
ij
Hpipjpj
=−
∑∑
(1.4)
где p
i
(j) – условная вероятность появления j-го символа, если предыду-
щим был i-й символ. Формула (1.4) является более общей, и в частном
случае, когда статистическая связь между пикселами отсутствует, она
переходит в формулу (1.1). Действительно, если p
i
(j) от i не зависит, то
можно его заменить на p(j) и записать:
() ( ) ( )
log ,
mm
ij
Hpipjpj
=−
∑∑
а так как внутренняя сумма не зависит от i, то суммы можно поменять
местами:
() () ()
log .
mm
ji
Hpjpjpi
=−
∑∑
(5)
Поскольку
()
1,
m
i
pi =
∑
так как суммируются все вероятности p(i),
формула (1.4) переходит в формулу (1.1), что и требовалось показать.
В рассматриваемом примере, когда элементы изображения взаимно
коррелированы, энтропия H будет меньше, чем в случае, если бы значе-
ния сигнала были бы статистически независимы. Вследствие этого дос-
тижимый коэффициент сжатия возрастает. Поэтому первым шагом при
Страницы
- « первая
- ‹ предыдущая
- …
- 5
- 6
- 7
- 8
- 9
- …
- следующая ›
- последняя »