Составители:
Рубрика:
мени. Согласно табл. 1.2
2
hh = , где
0
2
N
W
h
s
=
– отношение
энергии сигнала к спектральной плотности мощности шума.
В качестве примера вычислим вероятности ошибок для
равновероятных сигналов с различными модуляциями для
0
2
N
W
h
s
=
= 6. Результаты вычислений приведены в табл. 1.3.
Таблица 1.3
Вид дискретных
сигналов
Вероятность ошибки
при когерентном приеме
Вероятность ошибки
при некогерентном
приеме
АМ 0,0432 0,111
ЧМ 0,0072 0,0242
ОФМ 0,000418 0,00124
Количество информации, получаемой при приеме двух
равновероятных сигналов с вероятностями ошибки, соответст-
вующими табл. 1.2, можно вычислить по формуле
10
HHI
−
=
,
где – априорная энтропия; – апостериорная энтропия.
0
H
1
H
Для двух равновероятных сигналов априорная энтропия
определяется как
i
n
i
i
ppH
1
1
10
log
∑
=
−=
=15,0log5,05,0log5,0
=
−
−
бит.
Для сигнала с амплитудной модуляцией апостериорная
энтропия составляет:
i
n
i
i
ppH
2
1
21
log
∑
=
−=
=
=
9568,0log9568,00432,0log0432,0
−
−
= 0,257 бит.
Количество информации находится так:
101
HHI
−
=
= 743,0257,01 =
−
бит.
20
Ws мени. Согласно табл. 1.2 h = h 2 , где h 2 = – отношение N0 энергии сигнала к спектральной плотности мощности шума. В качестве примера вычислим вероятности ошибок для равновероятных сигналов с различными модуляциями для W h 2 = s = 6. Результаты вычислений приведены в табл. 1.3. N0 Таблица 1.3 Вероятность ошибки Вид дискретных Вероятность ошибки при некогерентном сигналов при когерентном приеме приеме АМ 0,0432 0,111 ЧМ 0,0072 0,0242 ОФМ 0,000418 0,00124 Количество информации, получаемой при приеме двух равновероятных сигналов с вероятностями ошибки, соответст- вующими табл. 1.2, можно вычислить по формуле I = H 0 − H1 , где H 0 – априорная энтропия; H 1 – апостериорная энтропия. Для двух равновероятных сигналов априорная энтропия определяется как n H0 = − ∑p i =1 1i log p1i = − 0,5 log 0,5 − 0,5 log 0,5 = 1 бит. Для сигнала с амплитудной модуляцией апостериорная энтропия составляет: n H1 = − ∑p i =1 2i log p2 i = = − 0,0432 log 0,0432 − 0,9568 log 0,9568 = 0,257 бит. Количество информации находится так: I1 = H 0 − H 1 = 1 − 0,257 = 0,743 бит. 20
Страницы
- « первая
- ‹ предыдущая
- …
- 18
- 19
- 20
- 21
- 22
- …
- следующая ›
- последняя »