Составители:
Рубрика:
сообщений неопределенность выбора уменьшается, что ведет
к уменьшению энтропии. Так, в тексте после сочетаний букв
«лош» наиболее вероятно появление буквы а и маловероятно
появление букв р, п и некоторых других. В среднем сочетание
букв «лошадь» несет меньше информации, чем эти буквы в
отдельности.
При передаче информации через радиоканал или провод-
ной канал связи количество информации можно определить
как разность двух энтропий:
)()()(
10
pHpHрI ,
=
−
где – энтропия априорного распределения параметров
сообщений; – энтропия апостериорного распределения
параметров сообщений.
)(
0
pH
)(
1
pH
Смысл этой формулы состоит в том, что если имеет место
достоверная передача через радиоканал или проводной канал,
то апостериорная вероятность 1
=
p
)p
, апостериорная энтропия
(неопределенность) равна нулю, количество информации при
этом максимально и равно .
(
0
H
Если апостериорная вероятность изменяется (10
≤
≤
p
)(0
1
), то
апостериорная энтропия изменяется в интервале 1
≤
≤
pH ,
причем 1)(
1
=
pH при 5,0
=
р . Количество информации при
этом будет меньше на величину апостериорной энтропии.
В радиолокации, когда неизвестны априорные вероятно-
сти распределения сигнала цели и помехи, применяется крите-
рий Неймана – Пирсона. При использовании этого критерия
обнаружения оптимальный приемник должен максимизировать
вероятность правильного обнаружения
D
при заданной веро-
ятности ложной тревоги
F
. Вероятность правильного обнару-
жения определяется по заданной вероятности ложной тревоги,
которая зависит от величины порога обнаружения, т. е.
∫
∞
∂=
l
xxWF )(
0
,
где – плотность вероятности помех; – величина поро-
га обнаружения.
)(
0
xW l
12
сообщений неопределенность выбора уменьшается, что ведет к уменьшению энтропии. Так, в тексте после сочетаний букв «лош» наиболее вероятно появление буквы а и маловероятно появление букв р, п и некоторых других. В среднем сочетание букв «лошадь» несет меньше информации, чем эти буквы в отдельности. При передаче информации через радиоканал или провод- ной канал связи количество информации можно определить как разность двух энтропий: I ( р) = H 0 ( p) − H 1 ( p) , где H 0 ( p ) – энтропия априорного распределения параметров сообщений; H 1 ( p ) – энтропия апостериорного распределения параметров сообщений. Смысл этой формулы состоит в том, что если имеет место достоверная передача через радиоканал или проводной канал, то апостериорная вероятность p = 1 , апостериорная энтропия (неопределенность) равна нулю, количество информации при этом максимально и равно H 0 ( p) . Если апостериорная вероятность изменяется ( 0 ≤ p ≤ 1 ), то апостериорная энтропия изменяется в интервале 0 ≤ H 1 ( p ) ≤ 1 , причем H 1 ( p) = 1 при р = 0,5 . Количество информации при этом будет меньше на величину апостериорной энтропии. В радиолокации, когда неизвестны априорные вероятно- сти распределения сигнала цели и помехи, применяется крите- рий Неймана – Пирсона. При использовании этого критерия обнаружения оптимальный приемник должен максимизировать вероятность правильного обнаружения D при заданной веро- ятности ложной тревоги F . Вероятность правильного обнару- жения определяется по заданной вероятности ложной тревоги, которая зависит от величины порога обнаружения, т. е. ∞ ∫ F = W0 ( x)∂x , l где W0 ( x) – плотность вероятности помех; l – величина поро- га обнаружения. 12
Страницы
- « первая
- ‹ предыдущая
- …
- 10
- 11
- 12
- 13
- 14
- …
- следующая ›
- последняя »