Радиотехнические системы передачи информации. Системы связи. Оценка технической эффективности радиотехнических систем передачи информации и систем связи. Бакеев Д.А. - 26 стр.

UptoLike

Составители: 

Количество информации на один отсчет вычисляется так:
п
2
п
2
с
log
σ
σ+σ
=
XY
I
= 26,0196,1log
184,0
184,0125,0
log
22
==
+
бит.
Если производительность источника сообщений
3
A
1064 == nfR
L
бит/с,
где , число равновероятных уровней квантова-
ния, то для непрерывного сигнала при
h = 4 количество пере-
даваемой информации составит:
hn
2
log=
h
3
A
1064,16 ==
RII
XY
бит/с.
1.6. Информационные характеристики
источников сообщений
Среднее количество информации, приходящееся на одно
дискретное сообщение , называется энтропией источника
сообщений, т. е.
i
a
=
=
n
i
ii
aPaPAH
1
)(log)()(
,
где )вероятность сообщения число сообщений (
i
аР ;
i
a n .
i
a
Источник непрерывных сообщений характеризуется диф-
ференциальной энтропией:
= daapapAh )(log)()(
2
.
Информационный смысл имеет не сама дифференциаль-
ная энтропия, а разность дифференциальных энтропий (на-
пример, на входе и выходе канала связи).
Под производительностью источника понимают среднее
количество информации, создаваемой источником в единицу
времени. Если за время источник дискретных сообщений
выдал сообщений, то количество произведенной им инфор-
и
t
n
26
    Количество информации на один отсчет вычисляется так:
                σс2 + σп2           0,1252 + 0,1842
 IY ↔X = log                = log                   = log1,196 = 0,26 бит.
                  σп                    0,184
    Если производительность источника сообщений
                            RA = f L n = 64 ⋅ 103 бит/с,
где n = log 2 h , h – число равновероятных уровней квантова-
ния, то для непрерывного сигнала при h = 4 количество пере-
даваемой информации составит:
                       I = I Y → X RA = 16,64 ⋅ 103 бит/с.


               1.6. Информационные характеристики
                       источников сообщений

    Среднее количество информации, приходящееся на одно
дискретное сообщение ai , называется энтропией источника
сообщений, т. е.
                                         n
                        H ( A) = −   ∑ P(a ) log P(a ) ,
                                        i =1
                                                    i   i



где Р (аi ) – вероятность сообщения ai ; n – число сообщений ai .
    Источник непрерывных сообщений характеризуется диф-
ференциальной энтропией:
                                    ∞

                                    ∫
                        h( A) = − p (a ) log 2 p (a )da .
                                    −∞

    Информационный смысл имеет не сама дифференциаль-
ная энтропия, а разность дифференциальных энтропий (на-
пример, на входе и выходе канала связи).
    Под производительностью источника понимают среднее
количество информации, создаваемой источником в единицу
времени. Если за время t и источник дискретных сообщений
выдал n сообщений, то количество произведенной им инфор-
                                               26