Радиотехнические системы передачи информации. Системы связи. Оценка технической эффективности радиотехнических систем передачи информации и систем связи. Бакеев Д.А. - 16 стр.

UptoLike

Составители: 

например, принят сигнал . Если бы не было помех, то приня-
тому сигналу однозначно соответствовал бы сигнал . При
помехах можно предположить, что был послан сигнал , но
полной уверенности в этом нет, следовательно, полученной
информации стало меньше. Эта потеря информации характе-
ризуется распределением условных вероятностей вида
, которое обычно представляют в виде канальной
матрицы (табл. 1.1).
j
b
i
а
m
b
i
а
)/(
ij
abp
j
b
i
a
Таблица 1.1
Канальная матрица
1
b
2
b
j
b
1
a )/
11
ab
/(
2
bp
)/(
1
abp
j
(p
(p
)
1
a )
1
/ ab
m
2
a
)/(
21
ab
/(
2
bp
)/(
2
abp
j
(p
p
)
2
/ ab
m
)
2
a
… …
i
a
)/
1 i
ab
/(
2
bp )/(
ij
abp
(p
(p
)
i
a
)
i
/
m
ab
m
a
)/
1 m
a
/(
2
bp
)/(
mj
abp
(p
(p b
)
m
a
)
m
/
m
ab
Если будет послан сигнал
i
, то количество потерянной
информации будет выражаться энтропией распределения ус-
ловных вероятностей i -й строки канальной матрицы:
a
)/(log)/()/(
ijijij
abpabpabH =
1
m
j
=
...
.
При этом каждая строка канальной матрицы должна удовле-
творять условию полной вероятности: при передаче сигнала
i
а
инимается один из сигналов b , . е. пр т
j
)/(...)/()/()/(
21
1
=
+
+
+
+
+
imijii
abpabpabpabp .
Для определения среднего количества потерянной инфор-
мации (в битах) необходимо усреднить значение условной
энтропии:
16
например, принят сигнал b j . Если бы не было помех, то приня-
тому сигналу однозначно соответствовал бы сигнал аi . При
помехах можно предположить, что был послан сигнал аi , но
полной уверенности в этом нет, следовательно, полученной
информации стало меньше. Эта потеря информации характе-
ризуется распределением условных вероятностей вида
 p(b j / ai ) , которое обычно представляют в виде канальной
матрицы (табл. 1.1).
                                                                                            Таблица 1.1

                                           Канальная матрица

           bj
                         b1                b2              …               bj                  bm
 ai
      a1            p (b1 / a1 )       p(b2 / a1 )         …           p(b j / a1 )        p(bm / a1 )
      a2             p (b1 / a2 )      p (b2 / a 2 )       …           p(b j / a2 )        p(bm / a2 )
      …                …                  …                …             …                    …
      ai            p (b1 / ai )       p(b2 / ai )         …           p(b j / ai )        p(bm / ai )
      am            p(b1 / am )        p(b2 / am )         …           p(b j / am )        p (bm / am )


    Если будет послан сигнал ai , то количество потерянной
информации будет выражаться энтропией распределения ус-
ловных вероятностей i -й строки канальной матрицы:
                                                     m
                              H (b j / ai ) = −   ∑ p (b
                                                   j =1
                                                           j   / ai ) log p(b j / ai ) .

При этом каждая строка канальной матрицы должна удовле-
творять условию полной вероятности: при передаче сигнала аi
принимается один из сигналов b j , т. е.

                p (b1 / ai ) + p (b2 / ai ) + ... + p(b j / ai ) + ... + p(bm / ai ) = 1 .
    Для определения среднего количества потерянной инфор-
мации (в битах) необходимо усреднить значение условной
энтропии:

                                                          16