Составители:
Рубрика:
Количество информации на один отсчет вычисляется так:
п
2
п
2
с
log
σ
σ+σ
=
↔XY
I
= 26,0196,1log
184,0
184,0125,0
log
22
==
+
бит.
Если производительность источника сообщений
3
A
1064 ⋅== nfR
L
бит/с,
где , – число равновероятных уровней квантова-
ния, то для непрерывного сигнала при
h = 4 количество пере-
даваемой информации составит:
hn
2
log=
h
3
A
1064,16 ⋅==
→
RII
XY
бит/с.
1.6. Информационные характеристики
источников сообщений
Среднее количество информации, приходящееся на одно
дискретное сообщение , называется энтропией источника
сообщений, т. е.
i
a
∑
=
−=
n
i
ii
aPaPAH
1
)(log)()(
,
где )– вероятность сообщения – число сообщений (
i
аР ;
i
a n .
i
a
Источник непрерывных сообщений характеризуется диф-
ференциальной энтропией:
∫
∞
∞−
−= daapapAh )(log)()(
2
.
Информационный смысл имеет не сама дифференциаль-
ная энтропия, а разность дифференциальных энтропий (на-
пример, на входе и выходе канала связи).
Под производительностью источника понимают среднее
количество информации, создаваемой источником в единицу
времени. Если за время источник дискретных сообщений
выдал сообщений, то количество произведенной им инфор-
и
t
n
26
Количество информации на один отсчет вычисляется так:
σс2 + σп2 0,1252 + 0,1842
IY ↔X = log = log = log1,196 = 0,26 бит.
σп 0,184
Если производительность источника сообщений
RA = f L n = 64 ⋅ 103 бит/с,
где n = log 2 h , h – число равновероятных уровней квантова-
ния, то для непрерывного сигнала при h = 4 количество пере-
даваемой информации составит:
I = I Y → X RA = 16,64 ⋅ 103 бит/с.
1.6. Информационные характеристики
источников сообщений
Среднее количество информации, приходящееся на одно
дискретное сообщение ai , называется энтропией источника
сообщений, т. е.
n
H ( A) = − ∑ P(a ) log P(a ) ,
i =1
i i
где Р (аi ) – вероятность сообщения ai ; n – число сообщений ai .
Источник непрерывных сообщений характеризуется диф-
ференциальной энтропией:
∞
∫
h( A) = − p (a ) log 2 p (a )da .
−∞
Информационный смысл имеет не сама дифференциаль-
ная энтропия, а разность дифференциальных энтропий (на-
пример, на входе и выходе канала связи).
Под производительностью источника понимают среднее
количество информации, создаваемой источником в единицу
времени. Если за время t и источник дискретных сообщений
выдал n сообщений, то количество произведенной им инфор-
26
Страницы
- « первая
- ‹ предыдущая
- …
- 24
- 25
- 26
- 27
- 28
- …
- следующая ›
- последняя »
