ВУЗ:
Составители:
71
личии “жесткой” статистической связи между источниками X и
Y
услов-
ная энтропия источника
Y относительно X равна нулю. Это означает, что
сигналы
j
y никакой новой информации не содержат относительно сигна-
лов
i
x .
Рассмотрим взаимосвязь между количеством информации и энтро-
пии передаваемого сообщения. Пусть до приема информации известны
только вероятности )(
j
xP уровней сигналов передаваемого сообщения.
Неопределенность сообщения до его приема можно характеризовать эн-
тропией:
∑
=
−=
n
j
jj
xPxPXH
1
2
).(log)()(
При отсутствии помех принятое сообщение полностью соответствует
переданному сообщению, вследствие чего неопределенность )(X
H
после
приема сообщения будет снята, т.е. величина )(X
H
станет равной нулю.
При этом будет получено количество информации ),( X
Y
I
, равное энтро-
пии )(X
H
.
Следовательно, количество информации, полученное в процессе пе-
редачи сообщения равно разности энтропий до и после приема сообщения:
.0)(),(
−
=
X
H
X
Y
I
При наличии же помех степень неопределенности на приемном кон-
це, т.е. энтропия, не будет равна нулю, так как:
).(),(
X
H
X
Y
I
≠
Наличие помех, характеризуемое величиной )
/
(
Y
X
H
, приведет к
ограничению количества информации, необходимого для полного снятия
неопределенности при приеме сообщения:
)./()(),(
Y
X
H
X
H
X
Y
I
−
=
Следовательно, энтропия представляет собой меру неопределенности, а
количество информации – меру снятия неопределенности при приеме со-
общения.
Определим совместную энтропию статистически зависимых источ-
ников сообщений. Пусть имеется два коррелированных источника
X и Y ,
каждому из которых соответственно принадлежат множества сигналов
i
x и
j
y
:
;1)(
1
=
∑
=
n
i
i
xP
.1)(
1
=
∑
=
m
j
j
yP
Если число возможных парных совмещений сигналов составит nm, то эн-
тропия в совокупности возможных совмещений сигналов:
личии “жесткой” статистической связи между источниками X и Y услов- ная энтропия источника Y относительно X равна нулю. Это означает, что сигналы y j никакой новой информации не содержат относительно сигна- лов xi . Рассмотрим взаимосвязь между количеством информации и энтро- пии передаваемого сообщения. Пусть до приема информации известны только вероятности P ( x j ) уровней сигналов передаваемого сообщения. Неопределенность сообщения до его приема можно характеризовать эн- тропией: n H ( X ) = − ∑ P( x j ) log 2 P( x j ). j =1 При отсутствии помех принятое сообщение полностью соответствует переданному сообщению, вследствие чего неопределенность H ( X ) после приема сообщения будет снята, т.е. величина H ( X ) станет равной нулю. При этом будет получено количество информации I (Y , X ) , равное энтро- пии H ( X ) . Следовательно, количество информации, полученное в процессе пе- редачи сообщения равно разности энтропий до и после приема сообщения: I (Y , X ) = H ( X ) − 0. При наличии же помех степень неопределенности на приемном кон- це, т.е. энтропия, не будет равна нулю, так как: I (Y , X ) ≠ H ( X ). Наличие помех, характеризуемое величиной H ( X / Y ) , приведет к ограничению количества информации, необходимого для полного снятия неопределенности при приеме сообщения: I (Y , X ) = H ( X ) − H ( X / Y ). Следовательно, энтропия представляет собой меру неопределенности, а количество информации – меру снятия неопределенности при приеме со- общения. Определим совместную энтропию статистически зависимых источ- ников сообщений. Пусть имеется два коррелированных источника X и Y , каждому из которых соответственно принадлежат множества сигналов xi и yj : n m ∑ P( xi ) = 1; i =1 ∑ P( y j =1 j ) = 1. Если число возможных парных совмещений сигналов составит nm, то эн- тропия в совокупности возможных совмещений сигналов: 71
Страницы
- « первая
- ‹ предыдущая
- …
- 69
- 70
- 71
- 72
- 73
- …
- следующая ›
- последняя »