Составители:
Рубрика:
Количество информации составит:
0092,02771,02863,0)/()(),(
=
−
=
−
= АВHAHABI бит.
Этот результат может быть получен другим способом с
помощью условной энтропии:
)/(log)/()()/(
11
ij
m
j
iji
m
i
bapbapbpВАH
∑∑
==
−= =
=
+
− )/(log)/()[(
11111
bapbapbp
−
)]/(log)/(
1212
bapbap
+
− )/(log)/()[(
21212
bapbapbp )]/(log)/(
2222
bapbap .
Если принят символ , то количество потерянной ин-
формации, неопределенность принятого сигнала будут выра-
жаться энтропией распределения условных вероятностей
j
b
j
-го
столбца канальной матрицы
93,005,0
07,095,0
)/( =bap
.
При этом каждый столбец канальной матрицы должен
удовлетворять условию
∑
=
i
ji
bap 1)/(
i
а
1,0
, т. е. если был принят
символ , то был послан сигнал . Необходимо знать веро-
ятности того, что на приемный конец поступают символы .
Пусть ,
j
b
(
1
bp
j
b
9,0) = )(
2
=
bp
. Тогда
)/(log)/()()/(
11
ij
m
j
iji
m
i
bapbapbpВАH
∑∑
==
−= =
=
−
+
−
]05,0log05,095,0log95,0[9,0
=
+
− ]93,0log93,007,0log07,0[1,0 0,2771 бит.
Количество информации составит:
0092,02771,02863,0)/()(),(
=
−
=
−
= BAHВHВАI бит,
где 2863,0)()(
=
= AHВH .
Пример 1.4. По условиям примеров 1.2 и 1.3, для цели, ко-
торая обнаружена на расстоянии 2521
2
≤
≤ D км с вероятно-
18
Количество информации составит: I ( B, A) = H ( A) − H ( В / А) = 0,2863 − 0,2771 = 0,0092 бит. Этот результат может быть получен другим способом с помощью условной энтропии: m m H ( А / В) = − ∑ ∑ p(b ) p(a i =1 j =1 i j / bi ) log p (a j / bi ) = = − p(b1 )[ p(a1 / b1 ) log p(a1 / b1 ) + p (a2 / b1 ) log p (a2 / b1 )] − − p (b2 )[ p (a1 / b2 ) log p(a1 / b2 ) + p (a2 / b2 ) log p(a2 / b2 )] . Если принят символ b j , то количество потерянной ин- формации, неопределенность принятого сигнала будут выра- жаться энтропией распределения условных вероятностей j -го столбца канальной матрицы 0,95 0,07 p ( a / b) = 0,05 0,93 . При этом каждый столбец канальной матрицы должен удовлетворять условию ∑ p (ai / b j ) = 1 , т. е. если был принят i символ b j , то был послан сигнал аi . Необходимо знать веро- ятности того, что на приемный конец поступают символы b j . Пусть p(b1 ) = 0,9 , p(b2 ) = 0,1 . Тогда m m H ( А / В) = − ∑ ∑ p(b ) p(a i =1 j =1 i j / bi ) log p (a j / bi ) = = − 0,9[0,95 log 0,95 + 0,05 log 0,05] − − 0,1[0,07 log 0,07 + 0,93 log 0,93] = 0,2771 бит. Количество информации составит: I ( А, В) = H ( В ) − H ( A / B ) = 0,2863 − 0,2771 = 0,0092 бит, где H ( В ) = H ( A) = 0,2863 . Пример 1.4. По условиям примеров 1.2 и 1.3, для цели, ко- торая обнаружена на расстоянии 21 ≤ D2 ≤ 25 км с вероятно- 18
Страницы
- « первая
- ‹ предыдущая
- …
- 16
- 17
- 18
- 19
- 20
- …
- следующая ›
- последняя »