ВУЗ:
Составители:
69
.log)(
2
PPP
−
=
η
(14.4)
Формула
(14.2) принимает вид:
.)()(
1
∑
=
=
n
i
i
PXH
η
(14.5)
Рассмотрим совместную энтропию статистически независимых ис-
точников сообщений. Пусть имеется два статистически независимых ис-
точника X и
Y
, причем множество состояний
n
xx ,..,
1
принадлежит источ-
нику
X
, а
m
yy ,..,
1
– источнику Y . При этом:
;1)(
1
=
∑
=
n
i
i
xP
.1)(
1
=
∑
=
m
j
j
yP
Если источники
X и Y статистически не связаны между собой, то:
{
}
).()(),(,
jijiji
yPxPyxPyYxXP
=
=
=
=
(14.6)
Используя
(14.2) и (14.3) для энтропии ),(
Y
X
H
системы с состояниями
),,(
ji
yx получим выражение:
∑∑
∑∑
∑∑
+=−−=
=+−=
=
−=
j
jj
i
ii
ij
jiji
ij
jiji
YHXHyPyPxPxP
yPxPyPxP
yxPyxPYXH
).()()(log)()(log)(
)](log)()[log()(
),(log),(),(
22
22
2
Следовательно, совместная энтропия статистически независимых ис-
точников равна сумме энтропий этих источников. Этот вывод распростра-
няется и на большее число статистически независимых источников.
Рассмотрим условную энтропию статистически зависимых источни-
ков сообщений. Пусть имеется два статистически зависимых источника
сообщений X и
Y
. Если источники X и
Y
коррелированны, то это озна-
чает, что между сигналами источников
ji
yx , существует взаимосвязь, при
которой любому значению, например
i
x , соответствует значения сигналов
источника
Y с условными вероятностями:
)./();...;/();...;/(
1 imiji
xyPxyPxyP
Совокупность условных вероятностей для конкретного значения
i
x
позволяет определить частную условную энтропию:
∑
=
−=
m
j
ijiji
xyPxyPxYH
1
2
),/(log)/()/(
η( P) = − P log2 P. (14.4) Формула (14.2) принимает вид: n H ( X ) = ∑η ( Pi ). (14.5) i =1 Рассмотрим совместную энтропию статистически независимых ис- точников сообщений. Пусть имеется два статистически независимых ис- точника X и Y , причем множество состояний x1 ,.., x n принадлежит источ- нику X , а y1 ,.., y m – источнику Y . При этом: n m ∑ P( xi ) = 1; ∑ P( y j ) = 1. i =1 j =1 Если источники X и Y статистически не связаны между собой, то: P{X = xi , Y = y j } = P ( xi , y j ) = P ( xi ) P ( y j ). (14.6) Используя (14.2) и (14.3) для энтропии H ( X , Y ) системы с состояниями ( xi , y j ), получим выражение: H ( X ,Y ) = −∑∑ P( xi , y j ) log2 P( xi , y j ) = i j = −∑∑ P( xi )P( y j )[log2 P( xi ) + log2 P( y j )] = i j = −∑ P( xi ) log2 P( xi ) −∑ P( y j ) log2 P( y j ) = H ( X ) + H (Y ). i j Следовательно, совместная энтропия статистически независимых ис- точников равна сумме энтропий этих источников. Этот вывод распростра- няется и на большее число статистически независимых источников. Рассмотрим условную энтропию статистически зависимых источни- ков сообщений. Пусть имеется два статистически зависимых источника сообщений X и Y . Если источники X и Y коррелированны, то это озна- чает, что между сигналами источников xi , y j существует взаимосвязь, при которой любому значению, например xi , соответствует значения сигналов источника Y с условными вероятностями: P ( y1 / xi );...; P ( y j / xi );...; P ( y m / xi ). Совокупность условных вероятностей для конкретного значения xi позволяет определить частную условную энтропию: m H (Y / xi ) = − ∑ P( y j / xi ) log2 P( y j / xi ), j =1 69
Страницы
- « первая
- ‹ предыдущая
- …
- 67
- 68
- 69
- 70
- 71
- …
- следующая ›
- последняя »