ВУЗ:
Составители:
115
B
A
1
A
uy
e
Рис. 5.7.
Одношаговый прогноз для описания (5.164) определяется соотношением [14 ]
$
(,) (,)() [ (,)]()y
t
HqGqut Hq yt
θ
θθ θ
⎛
⎝
⎜
⎞
⎠
⎟
=+−
−−11
1 . (5.166)
Рассчитаем предсказатель для модели (5.162). Подстановка (5.165) в (5.166)
дает:
$
( ) () [ ( )] ()y
t
Bqut Aq yt
θ
⎛
⎝
⎜
⎞
⎠
⎟
=+−1
. (5.167)
Введем вектор
ϕ
() [ ( ), , ( ), ( ), , ( )]t yt yt n ut ut n
ab
T
=− − − − − −11KK. (5.168)
Тогда (5.167) можно переписать в виде
$
() ()y
t
tt
TT
θ
θϕ ϕ θ
⎛
⎝
⎜
⎞
⎠
⎟
==. (5.169)
Предсказатель представляет собой скалярное произведение известного вектора
данных
ϕ
(t) и вектора параметров
θ
. В статистике такую модель называют линей-
ной регрессией, а вектор
ϕ
(t) - регрессионным вектором.
В том случае, когда некоторые из коэффициентов многочленов A и B из-
вестны, мы приходим к линейной регрессии вида
$
() ()y
t
tt
T
θ
ϕθμ
⎛
⎝
⎜
⎞
⎠
⎟
=+, (5.170)
где член
μ
(t) известен. Далее для простоты обозначений, полагаем
μ
(t) = 0, что со-
вершенно допустимо.
С учетом (5.170) ошибка предсказания принимает вид
εθ ϕ θ
(, ) () ()tyt t
T
=− . (5.171)
Критерий наименьших квадратов для линейной регрессии (5.170) имеет
вид:
VZ
N
yt t
N
NT
t
N
( , ) [ () () ]
θϕθ
=−
=
∑
11
2
2
1
, (5.172)
где
z
N
= (y(1), u(1), y(2), u(2), ..., y(N),u(N)). (5.173)
Оценка
$
θ
N
LS
вектора параметров
θ
по методу наименьших квадратов имеет вид:
$
arg min ( , ) ( ) ( ) ( ) ( )
θθϕϕϕ
N
LS
N
NT
t
N
t
N
VZ
N
tt
N
tyt==
⎡
⎣
⎢
⎤
⎦
⎥
⋅
=
−
=
∑∑
11
1
1
1
, (5.174)
где argmin f(x)- значение x, минимизирующее функцию f(x). Следовательно, argmin
V
N
(
θ
,Z
N
) есть значение вектора
θ
, минимизирующее функцию V
N
(
θ
,Z
N
).
e 1 A u B y A Рис. 5.7. Одношаговый прогноз для описания (5.164) определяется соотношением [14 ] ⎛t⎞ y$ ⎜ ⎟ = H −1 (q ,θ )G (q ,θ )u(t ) + [1 − H −1 (q ,θ )] y (t ) . (5.166) ⎝θ ⎠ Рассчитаем предсказатель для модели (5.162). Подстановка (5.165) в (5.166) дает: ⎛t⎞ y$ ⎜ ⎟ = B(q )u(t ) + [1 − A(q )] y (t ) . (5.167) ⎝θ ⎠ Введем вектор ϕ (t ) = [ − y (t − 1),K ,− y (t − na ), u(t − 1),K , u(t − nb )]T . (5.168) Тогда (5.167) можно переписать в виде ⎛t⎞ y$ ⎜ ⎟ = θ T ϕ (t ) = ϕ T (t )θ . (5.169) ⎝θ ⎠ Предсказатель представляет собой скалярное произведение известного вектора данных ϕ(t) и вектора параметров θ. В статистике такую модель называют линей- ной регрессией, а вектор ϕ(t) - регрессионным вектором. В том случае, когда некоторые из коэффициентов многочленов A и B из- вестны, мы приходим к линейной регрессии вида ⎛t⎞ y$ ⎜ ⎟ = ϕ T (t )θ + μ (t ) , (5.170) ⎝θ ⎠ где член μ(t) известен. Далее для простоты обозначений, полагаем μ(t) = 0, что со- вершенно допустимо. С учетом (5.170) ошибка предсказания принимает вид ε (t ,θ ) = y (t ) − ϕ T (t )θ . (5.171) Критерий наименьших квадратов для линейной регрессии (5.170) имеет вид: 1 N 1 VN (θ , Z N ) = ∑ [ y (t ) − ϕ T (t )θ ]2 , (5.172) N t =1 2 где zN = (y(1), u(1), y(2), u(2), ..., y(N),u(N)). (5.173) Оценка θ$NLS вектора параметров θ по методу наименьших квадратов имеет вид: −1 ⎡1 N ⎤ 1 N θ N = arg minV N (θ , Z ) = ⎢ ∑ ϕ (t )ϕ (t ) ⎥ ⋅ ∑ ϕ (t ) y (t ) , (5.174) $ LS N T ⎣ N t =1 ⎦ N t =1 где argmin f(x)- значение x, минимизирующее функцию f(x). Следовательно, argmin VN(θ,ZN) есть значение вектора θ, минимизирующее функцию VN(θ,ZN). 115
Страницы
- « первая
- ‹ предыдущая
- …
- 113
- 114
- 115
- 116
- 117
- …
- следующая ›
- последняя »