Радиотехнические системы передачи информации. Системы связи. Оценка технической эффективности радиотехнических систем передачи информации и систем связи. Бакеев Д.А. - 12 стр.

UptoLike

Составители: 

сообщений неопределенность выбора уменьшается, что ведет
к уменьшению энтропии. Так, в тексте после сочетаний букв
«лош» наиболее вероятно появление буквы а и маловероятно
появление букв р, п и некоторых других. В среднем сочетание
букв «лошадь» несет меньше информации, чем эти буквы в
отдельности.
При передаче информации через радиоканал или провод-
ной канал связи количество информации можно определить
как разность двух энтропий:
)()()(
10
pHpHрI ,
=
где энтропия априорного распределения параметров
сообщений; энтропия апостериорного распределения
параметров сообщений.
)(
0
pH
)(
1
pH
Смысл этой формулы состоит в том, что если имеет место
достоверная передача через радиоканал или проводной канал,
то апостериорная вероятность 1
=
p
)p
, апостериорная энтропия
(неопределенность) равна нулю, количество информации при
этом максимально и равно .
(
0
H
Если апостериорная вероятность изменяется (10
p
)(0
1
), то
апостериорная энтропия изменяется в интервале 1
pH ,
причем 1)(
1
=
pH при 5,0
=
р . Количество информации при
этом будет меньше на величину апостериорной энтропии.
В радиолокации, когда неизвестны априорные вероятно-
сти распределения сигнала цели и помехи, применяется крите-
рий НейманаПирсона. При использовании этого критерия
обнаружения оптимальный приемник должен максимизировать
вероятность правильного обнаружения
D
при заданной веро-
ятности ложной тревоги
F
. Вероятность правильного обнару-
жения определяется по заданной вероятности ложной тревоги,
которая зависит от величины порога обнаружения, т. е.
=
l
xxWF )(
0
,
где плотность вероятности помех; величина поро-
га обнаружения.
)(
0
xW l
12
сообщений неопределенность выбора уменьшается, что ведет
к уменьшению энтропии. Так, в тексте после сочетаний букв
«лош» наиболее вероятно появление буквы а и маловероятно
появление букв р, п и некоторых других. В среднем сочетание
букв «лошадь» несет меньше информации, чем эти буквы в
отдельности.
    При передаче информации через радиоканал или провод-
ной канал связи количество информации можно определить
как разность двух энтропий:
                     I ( р) = H 0 ( p) − H 1 ( p) ,
где H 0 ( p ) – энтропия априорного распределения параметров
сообщений; H 1 ( p ) – энтропия апостериорного распределения
параметров сообщений.
    Смысл этой формулы состоит в том, что если имеет место
достоверная передача через радиоканал или проводной канал,
то апостериорная вероятность p = 1 , апостериорная энтропия
(неопределенность) равна нулю, количество информации при
этом максимально и равно H 0 ( p) .
    Если апостериорная вероятность изменяется ( 0 ≤ p ≤ 1 ), то
апостериорная энтропия изменяется в интервале 0 ≤ H 1 ( p ) ≤ 1 ,
причем H 1 ( p) = 1 при р = 0,5 . Количество информации при
этом будет меньше на величину апостериорной энтропии.
    В радиолокации, когда неизвестны априорные вероятно-
сти распределения сигнала цели и помехи, применяется крите-
рий Неймана – Пирсона. При использовании этого критерия
обнаружения оптимальный приемник должен максимизировать
вероятность правильного обнаружения D при заданной веро-
ятности ложной тревоги F . Вероятность правильного обнару-
жения определяется по заданной вероятности ложной тревоги,
которая зависит от величины порога обнаружения, т. е.
                               ∞

                               ∫
                          F = W0 ( x)∂x ,
                                l

где W0 ( x) – плотность вероятности помех; l – величина поро-
га обнаружения.
                                    12