Составители:
Рубрика:
Количество информации на один отсчет вычисляется так:
п
2
п
2
с
log
σ
σ+σ
=
↔XY
I
= 26,0196,1log
184,0
184,0125,0
log
22
==
+
бит.
Если производительность источника сообщений
3
A
1064 ⋅== nfR
L
бит/с,
где , – число равновероятных уровней квантова-
ния, то для непрерывного сигнала при
h = 4 количество пере-
даваемой информации составит:
hn
2
log=
h
3
A
1064,16 ⋅==
→
RII
XY
бит/с.
1.6. Информационные характеристики
источников сообщений
Среднее количество информации, приходящееся на одно
дискретное сообщение , называется энтропией источника
сообщений, т. е.
i
a
∑
=
−=
n
i
ii
aPaPAH
1
)(log)()(
,
где )– вероятность сообщения – число сообщений (
i
аР ;
i
a n .
i
a
Источник непрерывных сообщений характеризуется диф-
ференциальной энтропией:
∫
∞
∞−
−= daapapAh )(log)()(
2
.
Информационный смысл имеет не сама дифференциаль-
ная энтропия, а разность дифференциальных энтропий (на-
пример, на входе и выходе канала связи).
Под производительностью источника понимают среднее
количество информации, создаваемой источником в единицу
времени. Если за время источник дискретных сообщений
выдал сообщений, то количество произведенной им инфор-
и
t
n
26
Количество информации на один отсчет вычисляется так: σс2 + σп2 0,1252 + 0,1842 IY ↔X = log = log = log1,196 = 0,26 бит. σп 0,184 Если производительность источника сообщений RA = f L n = 64 ⋅ 103 бит/с, где n = log 2 h , h – число равновероятных уровней квантова- ния, то для непрерывного сигнала при h = 4 количество пере- даваемой информации составит: I = I Y → X RA = 16,64 ⋅ 103 бит/с. 1.6. Информационные характеристики источников сообщений Среднее количество информации, приходящееся на одно дискретное сообщение ai , называется энтропией источника сообщений, т. е. n H ( A) = − ∑ P(a ) log P(a ) , i =1 i i где Р (аi ) – вероятность сообщения ai ; n – число сообщений ai . Источник непрерывных сообщений характеризуется диф- ференциальной энтропией: ∞ ∫ h( A) = − p (a ) log 2 p (a )da . −∞ Информационный смысл имеет не сама дифференциаль- ная энтропия, а разность дифференциальных энтропий (на- пример, на входе и выходе канала связи). Под производительностью источника понимают среднее количество информации, создаваемой источником в единицу времени. Если за время t и источник дискретных сообщений выдал n сообщений, то количество произведенной им инфор- 26
Страницы
- « первая
- ‹ предыдущая
- …
- 24
- 25
- 26
- 27
- 28
- …
- следующая ›
- последняя »