Составители:
Рубрика:
например, принят сигнал . Если бы не было помех, то приня-
тому сигналу однозначно соответствовал бы сигнал . При
помехах можно предположить, что был послан сигнал , но
полной уверенности в этом нет, следовательно, полученной
информации стало меньше. Эта потеря информации характе-
ризуется распределением условных вероятностей вида
, которое обычно представляют в виде канальной
матрицы (табл. 1.1).
j
b
i
а
m
b
i
а
)/(
ij
abp
j
b
i
a
Таблица 1.1
Канальная матрица
1
b
2
b
j
b
…
1
a )/
11
ab
/(
2
bp
)/(
1
abp
j
(p
(p
…
)
1
a )
1
/ ab
m
2
a
)/(
21
ab
/(
2
bp
)/(
2
abp
j
(p
p
…
)
2
/ ab
m
)
2
a
… … … … … …
i
a
)/
1 i
ab
/(
2
bp )/(
ij
abp
(p
(p
…
)
i
a
)
i
/
m
ab
m
a
)/
1 m
a
/(
2
bp
)/(
mj
abp
(p
(p b
…
)
m
a
)
m
/
m
ab
Если будет послан сигнал
i
, то количество потерянной
информации будет выражаться энтропией распределения ус-
ловных вероятностей i -й строки канальной матрицы:
a
)/(log)/()/(
ijijij
abpabpabH =
1
m
j
∑
=
−
...
.
При этом каждая строка канальной матрицы должна удовле-
творять условию полной вероятности: при передаче сигнала
i
а
инимается один из сигналов b , . е. пр т
j
)/(...)/()/()/(
21
1
=
+
+
+
+
+
imijii
abpabpabpabp .
Для определения среднего количества потерянной инфор-
мации (в битах) необходимо усреднить значение условной
энтропии:
16
например, принят сигнал b j . Если бы не было помех, то приня- тому сигналу однозначно соответствовал бы сигнал аi . При помехах можно предположить, что был послан сигнал аi , но полной уверенности в этом нет, следовательно, полученной информации стало меньше. Эта потеря информации характе- ризуется распределением условных вероятностей вида p(b j / ai ) , которое обычно представляют в виде канальной матрицы (табл. 1.1). Таблица 1.1 Канальная матрица bj b1 b2 … bj bm ai a1 p (b1 / a1 ) p(b2 / a1 ) … p(b j / a1 ) p(bm / a1 ) a2 p (b1 / a2 ) p (b2 / a 2 ) … p(b j / a2 ) p(bm / a2 ) … … … … … … ai p (b1 / ai ) p(b2 / ai ) … p(b j / ai ) p(bm / ai ) am p(b1 / am ) p(b2 / am ) … p(b j / am ) p (bm / am ) Если будет послан сигнал ai , то количество потерянной информации будет выражаться энтропией распределения ус- ловных вероятностей i -й строки канальной матрицы: m H (b j / ai ) = − ∑ p (b j =1 j / ai ) log p(b j / ai ) . При этом каждая строка канальной матрицы должна удовле- творять условию полной вероятности: при передаче сигнала аi принимается один из сигналов b j , т. е. p (b1 / ai ) + p (b2 / ai ) + ... + p(b j / ai ) + ... + p(bm / ai ) = 1 . Для определения среднего количества потерянной инфор- мации (в битах) необходимо усреднить значение условной энтропии: 16
Страницы
- « первая
- ‹ предыдущая
- …
- 14
- 15
- 16
- 17
- 18
- …
- следующая ›
- последняя »