Лекции по теории информации. Фурсов В.А. - 58 стр.

UptoLike

Составители: 

58
Здесь
( , )
p z v
плотность совместного распределения вероятностей случайных
величин
Z
и
V
.
Наиболее популярным является среднеквадратический критерий. При этом
с учетом равенства
( , ) ( / ) ( )
критерий сходства может быть записан
в виде
2 2
( , ) ( ) ( / ) ( )Z V z v p z v p v dzdv
 
, (6.12)
где
( / )
p z v
условная плотность распределения, характеризующая вероятность
воспроизведения конкретного сигнала
z
сигналом
v
, а
заданное значение
верности воспроизведения.
В соответствии с (6.10) количество информации о случайной величине
Z
,
содержащейся в воспроизводящей величине
V
равно
2
( / )
( , ) ( ) ( ) ( / ) ( )log
( )
v
p z v
I Z V h Z h Z p z v p v dzdv
p z

. (6.13)
Заданную верность воспроизведения случайной величины
Z
желательно обес-
печить при минимальном количестве получаемой информации. Поэтому услов-
ную плотность
/
p z v
вероятности того, что в тех случаях, когда была зафик-
сирован сигнал
z
, имел место сигнал
v
, следует подобрать так, чтобы в (6.13)
имел место минимум информации
,
I Z V
по всем
/
p z v
.
Величину
( )
H Z
, определяемую как
( / )
( ) min ( , )
p z v
H Z I Z V
, (6.14)
при условии
2
( , )Z V
, (6.15)
называют эпсилон-энтропией (
-энтропией) непрерывной случайной величины
Z
. В соответствии с (6.10) ее также можно определить как
( / )
( / )
( ) min ( ) ( ) ( ) max ( )
V V
p z v
p z v
H Z h Z h Z h Z h Z
.