ВУЗ:
Составители:
Рубрика:
6 ГАУССОВСКИЙ СЛУЧАЙНЫЙ ВЕКТОР § 1.
§ 1. Гауссовский случайный вектор
1.1. Теоретические положения. Пусть m
X
∈ R
n
— произвольный
вектор, а K
X
∈ R
n×n
— симметричная неотрицательно определенная
матрица (K
X
= K
X
⊤
, K
X
> 0).
О п р е д е л е н и е 1.1. Случайный вектор X ∈ R
n
имеет n-мерное
гауссовское распределение с параметрами (m
X
; K
X
), если его характе-
ристическая функция Ψ
X
(λ), λ ∈ R
n
имеет вид
Ψ
X
(λ) = exp
iλ
⊤
m
X
−
1
2
λ
⊤
K
X
λ
, (1.1)
где i — мнимая единица (i
2
= −1).
Обозначение: X ∼ N(m
X
; K
X
).
Параметры m
X
и K
X
являются, соответственно, математическим
ожиданием и ковариационной матрицей вектора X.
О п р е д е л е н и е 1.2. Гауссовский вектор X называется невырожден-
ным, если матрица K
X
— положительно определенная (K
X
> 0).
Если K
X
> 0, а ∆
X
= det[K
X
] — определитель матрицы K
X
, то X
имеет в каждой точке x ∈ R
n
плотность вероятности следующего вида:
p
X
(x) = [(2π)
n
∆
X
]
−
1
2
exp
n
−
1
2
(x − m
X
)
⊤
K
X
−1
(x − m
X
)
o
(1.2)
Гауссовский вектор X имеет следующие основные свойства.
1) Если A ∈ R
m×n
, b ∈ R
m
— неслучайные матричные параметры,
X ∼ N(m
X
; K
X
), а Y = AX + b, то X ∼ N(m
Y
; K
Y
), где
m
Y
= Am
X
+ b; K
Y
= AK
X
A
⊤
. (1.3)
Из (1.3) следует, в частности, что любой подвектор гауссовского век-
тора также является гауссовским. Например, если X
i
— i-ая компонента
вектора X, то X
i
∼ N(m
i
; σ
i
2
), где m
i
— i-ая компонента m
X
, а σ
i
2
— i-й
диагональный элемент матрицы K
X
.
2) Если X ∼ N(m
X
; K
X
), причем компоненты {X
1
, . . . , X
n
} вектора
X некоррелированы (т.е. K
X
— диагональная матрица), то случайные
величины {X
1
, . . . , X
n
} независимы в совокупности. Наоборот, произ-
вольная совокупность {X
1
, . . . , X
n
} независимых гауссовских случайных
величин образует гауссовский случайный вектор.
§ 1. ГАУССОВСКИЙ СЛУЧАЙНЫЙ ВЕКТОР 7
Пусть Z = {X
⊤
, Y
⊤
}
⊤
— гауссовский вектор. Обозначим m
X
=
= M{X}, m
Y
= M{Y }, K
X
= cov(X, X), K
Y
= cov(Y, Y ), K
XY
=
= cov(X, Y ), где M{·} — математическое ожидание, а cov(·, ·) — кова-
риация.
Т е о р е м а 1.1. Пусть K
Y
> 0. Условное распределение вектора X
относительно Y является гауссовским с параметрами m
X| Y
и K
X| Y
,
где
m
X| Y
= m
X
+ K
XY
K
Y
−1
(Y − m
Y
) , (1.4)
K
X| Y
= K
X
− K
XY
K
Y
−1
(K
XY
)
⊤
. (1.5)
Случайный вектор m
X| Y
называется условным математическим
ожиданием X относительно Y , а неслучайная матрица K
X| Y
— условной
ковариационной матрицей.
Предположим, что требуется найти приближенное значение вектора
X ∈ R
p
по наблюдениям Y ∈ R
q
, причем Z = {X
⊤
, Y
⊤
}
⊤
∈ R
n
, n = p +
+ q — гауссовский вектор.
О п р е д е л е н и е 1.3. Оценкой для X по наблюдениям Y будем назы-
вать случайный вектор
e
X = ϕ(Y ), где ϕ(·) — произвольная борелевская
функция, отображающая R
q
в R
p
. Ве личина
J(ϕ) = M
n
|X −
e
X|
2
o
= M
|X − ϕ(Y )|
2
(1.6)
называется среднеквадратической погрешностью (с.к.-погрешностью)
оценки
e
X = ϕ(Y ).
О п р е д е л е н и е 1.4. Оценка
b
X = bϕ(Y ) называется с.к.-оптимальной
оценкой для X по наблюдениям Y , если
J( bϕ) 6 J(ϕ), ∀ϕ ∈ B,
где B — класс всех борелевских отображений R
q
→ R
p
.
Т е о р е м а 1.2. Пусть K
Y
> 0, тогда
b
X = bϕ(Y ) = m
X
+ K
XY
K
Y
−1
(Y − m
Y
), (1.7)
J( bϕ) = min
ϕ∈B
J(ϕ) = tr
K
X
− K
XY
K
Y
−1
(K
XY
)
⊤
, (1.8)
где tr[A] — след матрицы A.
6 ГАУССОВСКИЙ СЛУЧАЙНЫЙ ВЕКТОР § 1. § 1. ГАУССОВСКИЙ СЛУЧАЙНЫЙ ВЕКТОР 7 § 1. Гауссовский случайный вектор Пусть Z = {X ⊤ , Y ⊤ }⊤ — гауссовский вектор. Обозначим m X = = M{X}, m Y = M{Y }, K X = cov(X, X), K Y = cov(Y, Y ), K XY = = cov(X, Y ), где M{·} — математическое ожидание, а cov(·, ·) — кова- 1.1. Теоретические положения. Пусть m X ∈ Rn — произвольный риация. Т е о р е м а 1.1. Пусть K Y > 0. Условное распределение вектора X вектор, а K X ∈ Rn×n — симметричная неотрицательно определенная относительно Y является гауссовским с параметрами m X| Y и K X| Y , матрица (K X = K X ⊤ , KX > 0). где О п р е д е л е н и е 1.1. Случайный вектор X ∈ Rn имеет n-мерное гауссовское распределение с параметрами (m X ; K X ), если его характе- m X| Y = m X + K XY K −1 Y (Y − m Y ) , (1.4) ристическая функция Ψ X (λ), λ ∈ Rn имеет вид ⊤ ⊤ 1 ⊤ K X| Y = K X − K XY K −1 Y (K XY ) . (1.5) Ψ X (λ) = exp iλ m X − λ K X λ , (1.1) 2 Случайный вектор m X| Y называется условным математическим где i — мнимая единица (i2 = −1). ожиданием X относительно Y , а неслучайная матрица K X| Y — условной Обозначение: X ∼ N (m X ; K X ). ковариационной матрицей. Параметры m X и K X являются, соответственно, математическим Предположим, что требуется найти приближенное значение вектора ожиданием и ковариационной матрицей вектора X. X ∈ Rp по наблюдениям Y ∈ Rq , причем Z = {X ⊤ , Y ⊤ }⊤ ∈ Rn , n = p + О п р е д е л е н и е 1.2. Гауссовский вектор X называется невырожден- + q — гауссовский вектор. ным, если матрица K X — положительно определенная (K X > 0). О п р е д е л е н и е 1.3. Оценкой для X по наблюдениям Y будем назы- Если K X > 0, а ∆ X = det[K X ] — определитель матрицы K X , то X вать случайный вектор X e = ϕ(Y ), где ϕ(·) — произвольная борелевская имеет в каждой точке x ∈ Rn плотность вероятности следующего вида: функция, отображающая Rq в Rp . Величина n o 1 n o e 2 = M |X − ϕ(Y )|2 −2 1 J(ϕ) = M |X − X| (1.6) p X (x) = [(2π)n ∆ X ] exp − (x − m X )⊤ K −1 X (x − m X ) (1.2) 2 называется среднеквадратической погрешностью (с.к.-погрешностью) Гауссовский вектор X имеет следующие основные свойства. оценки Xe = ϕ(Y ). 1) Если A ∈ Rm×n , b ∈ Rm — неслучайные матричные параметры, b = ϕ(Y X ∼ N (m X ; K X ), а Y = AX + b, то X ∼ N (m Y ; K Y ), где О п р е д е л е н и е 1.4. Оценка X b ) называется с.к.-оптимальной оценкой для X по наблюдениям Y , если m Y = Am X + b; K Y = AK X A⊤ . (1.3) J(ϕ) b 6 J(ϕ), ∀ϕ ∈ B, Из (1.3) следует, в частности, что любой подвектор гауссовского век- где B — класс всех борелевских отображений Rq → Rp . тора также является гауссовским. Например, если X i — i-ая компонента Т е о р е м а 1.2. Пусть K Y > 0, тогда вектора X, то X i ∼ N (m i; σ 2i ), где m i — i-ая компонента m X , а σ 2i — i-й b = ϕ(Y b ) = m X + K XY K −1 диагональный элемент матрицы K X . X Y (Y − m Y ), (1.7) 2) Если X ∼ N (m X ; K X ), причем компоненты {X 1, . . . , X n} вектора X некоррелированы (т.е. K X — диагональная матрица), то случайные величины {X 1, . . . , X n} независимы в совокупности. Наоборот, произ- b = min J(ϕ) = tr K X − K XY K −1 J(ϕ) Y (K XY ) ⊤ , (1.8) ϕ∈B вольная совокупность {X 1, . . . , X n} независимых гауссовских случайных величин образует гауссовский случайный вектор. где tr[A] — след матрицы A.
Страницы
- « первая
- ‹ предыдущая
- …
- 2
- 3
- 4
- 5
- 6
- …
- следующая ›
- последняя »