Лекции по теории информации. Фурсов В.А. - 132 стр.

UptoLike

Составители: 

132
Минимум в (15.21) будет достигаться только при условии положительно-
сти подынтегральной функции:
1 1 0 0
/ / 0
r p x w x r p x w x
Y Y . (15.22)
В соответствии с (15.22) решающее правило принимает вид
если
01
0
0 1
/
/
r p xw x
w x r p x
Y
Y
, то
1
x
X , (15.23)
если
01
0
0 1
/
/
r p xw x
w x r p x
Y
Y
, то
0
x
X . (15.24)
Критерий минимального риска обеспечивает принятие наиболее обосно-
ванного решения, учитывающего также и экономические потери. Достигается
это за счет использования более богатой априорной информации. Помимо
функций распределения
/
w
Y X
и априорных вероятностей
p
X
в данном
случае необходимо знать цены потерь
r
,
r
.
15.7 Различение сигналов
В данном случае сигнал
X
может иметь
m
возможных значений
1
x
,
2
x
, …,
m
x
с априорными вероятностями
1
p x
,
2
p x
, …,
m
p x
:
1 1
2 2
;
;
.
m m
x p x
x p x
x p x
X
При этом пространство принимаемых сигналов разбивается на
m
областей:
1 2
, ,...,
m
v v v
. Соответственно выдвигается
m
гипотез:
1 2
, ,...,
m
H H H
о том, что
1
x
X ,
2
x
X , …,
m
x
X .
Процедура различения гипотез строится как дерево решений. По принято-
му вектору
Y
определяются функции правдоподобия:
1 1 2 2
/ , / , ... , /
m m
L x p x L x p x L x p x
Y Y Y
и вычисляются отношения правдоподобия