ВУЗ:
Составители:
Рубрика:
8 ГАУССОВСКИЙ СЛУЧАЙНЫЙ ВЕКТОР § 1.
Теорема 1.2 дает явный вид (1.7) с.к.-оптимальной оценки
b
X в гауссов-
ском случае, причем из (1.4) и (1.7) следует, что
b
X совпадает с условным
математическим ожиданием m
X| Y
. При этом ковариационная матрица
K
∆
X
= M
∆X(∆X)
⊤
ошибки ∆X =
b
X − X оценки
b
X совпадает с
условной ковариационной матрицей K
X| Y
, которая в гауссовском случае
оказывается неслучайной в силу (1.5).
1.2. Примеры.
П р и м е р 1.1. Доказать, что линейное преобразование Y = AX +
+ b гауссовского вектора X также является гауссовским вектором с
параметрами, опред еленными в (1.3).
Р е ш е н и е. Пусть X ∼ N(m
X
; K
X
), тогда из (1.1) следует, что
Ψ
X
(λ) = exp
iλ
⊤
m
X
−
1
2
λ
⊤
K
X
λ
. (1.9)
Найдем характеристическую функцию Ψ
Y
(λ):
Ψ
Y
(λ) = M
exp
λ
T
Y
= M
exp
iλ
⊤
(AX + b)
=
= exp
iλ
⊤
b
M
exp
iλ
⊤
AX
= exp
iλ
⊤
b
Ψ
X
(γ),
где γ = A
⊤
λ. Используя (1.9), из последнего выражения получаем
Ψ
Y
(λ) = exp
iλ
⊤
b
exp
iγ
⊤
m
X
−
1
2
γ
⊤
K
X
γ
=
= exp
iλ
⊤
(Am
X
+ b) −
1
2
λ
⊤
(AK
X
A
⊤
)λ
.
Из полученного выражения для Ψ
Y
(λ) и определения 1.1 следует:
Y ∼ N
Am
X
+ b; AK
X
A
⊤
,
что согласуется с (1.3).
П р и м е р 1.2. Двумерный гауссовский вектор X = {X
1
, X
2
}
⊤
имеет
плотность вероятности
p
X
(x
1
, x
2
) = Cexp{−
1
2
Q(x
1
, x
2
)},
где Q(x
1
, x
2
) = 2x
1
2
+ 3x
2
2
+ 2x
1
x
2
− 8x
1
− 14x
2
+ 18.
Найти закон распределения СВ η = 2X
1
− X
2
и вычислить C.
§ 1. ГАУССОВСКИЙ СЛУЧАЙНЫЙ ВЕКТОР 9
Р е ш е н и е. Пусть x = {x
1
, x
2
}
⊤
, X ∼ N(m
X
; K
X
), тогда из (1.2)
получаем, что Q(x) = (x − m
X
)
⊤
K
X
−1
(x − m
X
), причем K
X
> 0, так как
X невырожден по условию.
Очевидно, что Q(x) > Q(m
X
) = 0 для любых x ∈ R
2
. Поэтому
m
X
найдем из условия m
X
= arg min
x
Q(x). Воспользуемся необходимым
условием экстремума:
∂Q(x)
∂x
1
= 4x
1
+ 2x
2
− 8 = 0,
∂Q(x)
∂x
2
= 2x
1
+ 6x
2
− 14 = 0.
(1.10)
Решая систему уравнений (1.10), находим m
1
= M{X
1
} = 1; m
2
=
= M{X
2
} = 2. Итак, m
X
= {1; 2}
⊤
.
Теперь найдем K
X
−1
, оставив в выражении для Q(x) только квадра-
тичные члены:
x
⊤
K
X
−1
x = 2x
1
2
+ 3x
2
2
+ 2x
1
x
2
.
Из последнего выражения следует, что K
X
−1
=
2 1
1 3
. Таким обра-
зом, K
X
=
0,6 −0,2
−0,2 0,4
. Так как ∆
X
= det [K
X
] = 0,2, то C =
=
2π
p
∆
X
−1
=
√
5
2π
.
Так как по условию η = AX, где A = [2; −1], то η ∼
∼ N
Am
X
; AK
X
A
⊤
. Используя найденные параметры m
X
и K
X
рас-
пределения X, находим
m
η
= Am
X
= [2; −1]
1
2
= 0;
D
η
= AK
X
A
⊤
= [2; −1]
0,6 −0,2
−0,2 0,4
2
−1
= 3,6.
Итак, η ∼ N(0; 3,6).
П р и м е р 1.3. Пусть Y = X + ε, где X ∼ N(m
X
; D
X
), D
X
> 0, ε ∼
∼ N(m
ε
; D
ε
), причем СВ X и ε — независимы. Найти с.к.-оптимальные
оценки дл я Y по наблюдению X и для X по наблюдению Y .
Р е ш е н и е. По условию СВ X и Y образуют гауссовский вектор.
Тогда по теореме 1.2
b
Y = bϕ(X) = m
Y | X
= m
Y
+ K
Y X
K
X
−1
(X − m
X
).
8 ГАУССОВСКИЙ СЛУЧАЙНЫЙ ВЕКТОР § 1. § 1. ГАУССОВСКИЙ СЛУЧАЙНЫЙ ВЕКТОР 9 Теорема 1.2 дает явный вид (1.7) с.к.-оптимальной оценки X b в гауссов- Р е ш е н и е. Пусть x = {x 1, x 2}⊤ , X ∼ N (m X ; K X ), тогда из (1.2) b ском случае, причем из (1.4) и (1.7) следует, что X совпадает с условным получаем, что Q(x) = (x − m X )⊤ K −1X (x − m X ), причем K X > 0, так как математическим ожиданием m X| Y . При этом ковариационная матрица X невырожден по условию. Очевидно, что Q(x) > Q(m X ) = 0 для любых x ∈ R2 . Поэтому K ∆X = M ∆X(∆X)⊤ ошибки ∆X = X b − X оценки X b совпадает с m X найдем из условия m X = arg min Q(x). Воспользуемся необходимым условной ковариационной матрицей K X| Y , которая в гауссовском случае x условием экстремума: оказывается неслучайной в силу (1.5). ∂Q(x) ∂x = 4x 1 + 2x 2 − 8 = 0, 1 1.2. Примеры. (1.10) ∂Q(x) = 2x + 6x − 14 = 0. П р и м е р 1.1. Доказать, что линейное преобразование Y = AX + ∂x 2 1 2 + b гауссовского вектора X также является гауссовским вектором с параметрами, определенными в (1.3). Решая систему уравнений (1.10), находим m 1 = M{X 1} = 1; m 2 = Р е ш е н и е. Пусть X ∼ N (m X ; K X ), тогда из (1.1) следует, что = M{X 2} = 2. Итак, m X = {1; 2}⊤ . Теперь найдем K −1X , оставив в выражении для Q(x) только квадра- Ψ X (λ) = exp iλ⊤ m X − 12 λ⊤ K X λ . (1.9) тичные члены: x⊤ K −1 2 2 X x = 2x 1 + 3x 2 + 2x 1x 2. Найдем характеристическую функцию Ψ Y (λ): −1 2 1 Из последнего выражения следует, что K X = . Таким обра- 1 3 Ψ Y (λ) = M exp λT Y = M exp iλ⊤ (AX + b) = 0,6 −0,2 зом, K X = . Так как ∆ X = det [K X ] = 0,2, то C = = exp iλ⊤ b M exp iλ⊤ AX = exp iλ⊤ b Ψ X (γ), −0,2 0,4 p −1 √ 5 = 2π ∆X = . где γ = A⊤ λ. Используя (1.9), из последнего выражения получаем 2π Так как по условию η = AX, где A = [2; −1], то η ∼ Ψ Y (λ) = exp iλ⊤ b exp iγ ⊤ m X − 12 γ ⊤ K X γ = ∼ N Am X ; AK X A⊤ . Используя найденные параметры m X и K X рас- пределения X, находим = exp iλ⊤ (Am X + b) − 12 λ⊤ (AK X A⊤ )λ . 1 mη = Am X = [2; −1] = 0; Из полученного выражения для Ψ Y (λ) и определения 1.1 следует: 2 Y ∼ N Am X + b; AK X A⊤ , ⊤ 0,6 −0,2 2 Dη = AK X A = [2; −1] = 3,6. −0,2 0,4 −1 что согласуется с (1.3). Итак, η ∼ N (0; 3,6). П р и м е р 1.2. Двумерный гауссовский вектор X = {X 1, X 2}⊤ имеет П р и м е р 1.3. Пусть Y = X + ε, где X ∼ N (m X ; D X ), D X > 0, ε ∼ плотность вероятности ∼ N (m ε; D ε), причем СВ X и ε — независимы. Найти с.к.-оптимальные оценки для Y по наблюдению X и для X по наблюдению Y . p X (x 1, x 2) = Cexp{− 21 Q(x 1, x 2)} , Р е ш е н и е. По условию СВ X и Y образуют гауссовский вектор. Тогда по теореме 1.2 где Q(x 1, x 2) = 2x 21 + 3x 22 + 2x 1x 2 − 8x 1 − 14x 2 + 18. Найти закон распределения СВ η = 2X 1 − X 2 и вычислить C. Yb = ϕ(X) b = m Y | X = m Y + K Y X K −1 X (X − m X ).
Страницы
- « первая
- ‹ предыдущая
- …
- 3
- 4
- 5
- 6
- 7
- …
- следующая ›
- последняя »