ВУЗ:
Составители:
29
Так как комбинации передаются и принимаются с равной вероятностью,
то вероятность передачи i-й и приема j-й комбинации
Px
i
1
N
;
=Px
1
0.167
; Py
j
1
N
;
=Py
1
0.167
.
Согласно (1.1), энтропия принимаемой комбинации
H
Y
=1
6
j
.
Py
j
ln Py
j
;
=H
Y
2.585 bit
.
Согласно (1.7) с учетом P(x
i
,y
j
)=P(x
i
)P(y
j
/x
i
) условная энтропия прини-
маемой комбинации при известной передаваемой
HY
X
i j
..
Px
i
Py
x
,ij
ln Py
x
,ij
;
=HY
X
1.9 bit
.
Таким образом, количество информации на одну переданную комбина-
цию
I
XY
H
Y
HY
X
;
=I
XY
0.685 bit
.
Пример 2.2.3. Радиостанция противника может работать на волне λ
1
(событие A
1
) или на волне λ
2
(событие A
2
), причем в импульсном режиме
(событие B
1
) или непрерывном режиме (событие B
2
). Вероятности совмест-
ных событий имеют следующие значения:
P
AB
,11
0.7 ; P
AB
,12
0.15 ; P
AB
,21
0.05 ; P
AB
,22
0.1 .
Вычислить количество информации, получаемой относительно режима
работы станции, если станет известной длина волны станции.
Решение. Предварительно определим единицы измерения количества
информации:
а) при натуральном логарифме (нит) −
nit ln ( )e ;
б) при двоичном логарифме (бит) −
bit
.
nit ln ( )2 .
Вычислим безусловные вероятности P(A
i
) и P(B
j
) при
i..12,
j..12 и ORIGIN 1:
P
A
i
P
AB
,i1
P
AB
,i2
;
=P
A
1
0.85 ; =P
A
2
0.15
P
B
j
P
AB
,1j
P
AB
,2j
;
=P
B
1
0.75 ; =P
B
2
0.25
Вычислим условные вероятности P(B/A):
.
.
Страницы
- « первая
- ‹ предыдущая
- …
- 27
- 28
- 29
- 30
- 31
- …
- следующая ›
- последняя »