Составители:
Рубрика:
28
12
1
11
12
1
1
ln ( , , , ..., )
0;
ln ( , , , ..., )
0.
m
jn
m
j
m
jn
m
j
n
fI x x x
L
xx
fI x x x
L
xx
=
=
∂
∂
==
∂∂
∂
∂
==
∂∂
∑
∑
############
Решение этих уравнений дает искомые оценки х
1
, х
2
, ..., х
n
.
В том случае, когда погрешности измерений имеют нормально е рас-
пределение, система уравнений сводится к линейной, а схема вычисле-
ний – к методу наименьших квадратов.
Оценка по Байесу. Она основана на мак симизации по неизвестным
параметрам апостериорного распределения вероятности исследуемых па-
раметров, которые рассматривают как случайные величины:
121
(/)(,)/()(/)()/()gx I gI x g I gI xg x g I==
,
где
)/( Ixg
– апостериорная плотность вероятности (распределения
x
при условии, что уже получены наблюдения I
1
, I
2
, ..., I
m
);
),( xIg
– со-
вместная плотность распределения
I
и
x
;
)/( xIg
– функция правдо-
подобия; )(
2
xg
– априорная плотность распределения
x
;
)(
1
Ig
– апри-
орная плотность распределения
I
.
Если априори не существует информации о параметре
x
, то все
значения х считают равновероятными, и байе совские оценки совпа-
дают с максимально правдоподобными. Если же известно априор-
ное распределение
2
()gx
, то можно ожидать улучшения оценки мак -
симального правдоподобия за счет использования дополнительной
априорной информации. Это улучшение имеет место при ограни-
ченном количе стве каналов. При неограниченном увеличении чис-
ла каналов вклад априорной информации становится все меньше, и
максимально правдоподобные оценки асимптотически совпадают
с байесовскими.
Регрессивный метод. Запишем систему линейных уравнений
в матричном виде
Страницы
- « первая
- ‹ предыдущая
- …
- 26
- 27
- 28
- 29
- 30
- …
- следующая ›
- последняя »