ВУЗ:
Составители:
70
которая характеризует информационные свойства источника
Y
после того
как стало известно значение
i
x .
Усредняя частные условные энтропии по всем значениям
i
x получа-
ем общую условную энтропию источника
Y
относительно источника
X
:
∑∑∑
===
−==
n
i
n
i
m
j
ijijiii
xyPxyPxPxYHxPXYH
111
2
)./(log)/()()/()()/(
(14.7)
Так как для статистически зависимых сигналов:
),/()(),(
ijiji
xyPxPyxP
=
то
∑∑
==
−=
n
i
m
j
ijji
xyPyxPXYH
11
2
)./(log),()/(
Величина )
/
( X
Y
H
показывает, какой энтропией в среднем обладает
источник
Y
, если известен источник X .
Рассмотрим зависимость величины условной энтропии от степени
взаимосвязи между источниками
X и Y .
Если статистическая связь между сигналами источников X и
Y
от-
сутствует, то, сопоставляя равенство
(14.6) с выражением
),/()(),(
ijiji
xyPxPyxP =
получим:
)./()(
ijj
xyPyP =
(14.8)
Подставляя равенства
(14.6) и (14.8) в выражение (14.7) для условной
энтропии, найдем:
∑∑∑∑
====
=−=−=
n
i
n
i
m
j
jjijji
m
j
YHyPyPxPyPyPxPXYH
111
22
1
),()(log)()()(log)()()/(
так как
∑
=
=
n
i
i
xP
1
.1)(
Таким образом, в рассматриваемом случае:
),()
/
(
Y
H
X
Y
H
=
т.е. при отсутствии статистической связи между источниками
X
и
Y
ус-
ловная энтропия источника
Y относительно источника X равна безуслов-
ной энтропии источника
Y
. Это означает, что всякая информация сигналов
j
y является новой по отношению к сигналам
i
x .
При наличии “жесткой” статистической связи между источниками
X и
Y
возможны только два случая: 0)/(
=
ij
xyP или .1)/( =
ij
xyP Так
как при суммировании по j все слагаемые )/(log)/(
2 ijij
xyPxyP в выра-
жении для )
/
( X
Y
H
превращаются в нуль, то и ,0)
/
( =X
Y
H
т.е. при на-
которая характеризует информационные свойства источника Y после того как стало известно значение xi . Усредняя частные условные энтропии по всем значениям xi получа- ем общую условную энтропию источника Y относительно источника X : n n m H (Y / X ) = ∑ P( xi ) H (Y / xi ) = − ∑ ∑ P( xi ) P( y j / xi ) log 2 P( y j / xi ). (14.7) i =1 i =1 j =1 Так как для статистически зависимых сигналов: P( xi , y j ) = P( xi ) P( y j / xi ), то n m H (Y / X ) = − ∑ ∑ P( xi , y j ) log 2 P( y j / xi ). i =1 j =1 Величина H (Y / X ) показывает, какой энтропией в среднем обладает источник Y , если известен источник X . Рассмотрим зависимость величины условной энтропии от степени взаимосвязи между источниками X и Y . Если статистическая связь между сигналами источников X и Y от- сутствует, то, сопоставляя равенство (14.6) с выражением P ( xi , y j ) = P ( xi ) P ( y j / xi ), получим: P ( y j ) = P ( y j / xi ). (14.8) Подставляя равенства (14.6) и (14.8) в выражение (14.7) для условной энтропии, найдем: n m n m H (Y / X ) = − ∑ ∑ P( xi )P( y j ) log2 P( y j ) = − ∑ P( xi ) ∑ P( y j ) log2 P( y j ) = H (Y ), i=1 j =1 i=1 j =1 так как n ∑ P ( xi ) = 1. i =1 Таким образом, в рассматриваемом случае: H (Y / X ) = H (Y ), т.е. при отсутствии статистической связи между источниками X и Y ус- ловная энтропия источника Y относительно источника X равна безуслов- ной энтропии источника Y . Это означает, что всякая информация сигналов y j является новой по отношению к сигналам xi . При наличии “жесткой” статистической связи между источниками X и Y возможны только два случая: P( y j / xi ) = 0 или P( y j / xi ) = 1. Так как при суммировании по j все слагаемые P( y j / xi ) log 2 P( y j / xi ) в выра- жении для H (Y / X ) превращаются в нуль, то и H (Y / X ) = 0, т.е. при на- 70
Страницы
- « первая
- ‹ предыдущая
- …
- 68
- 69
- 70
- 71
- 72
- …
- следующая ›
- последняя »