ВУЗ:
Составители:
Рубрика:
()
T
T
qp
qpqp
ln
)(
~
ln
~
SIC
2
,
2
,
++=
σσ
.
Существенно, что
(
)
2
,
~
SIC
qp
σ
– возрастающая функция от p и q , когда p ≥ p
0
, q ≥ q
0
, что
ведет к состоятельности
оценок
()
qp
~
,
~
.
3.2. Оценивание коэффициентов модели
После того как произведена идентификация (стационарной) модели ARMA, т.е. на
основании имеющихся наблюдений принято решение о значениях p, q
в модели ARMA(p,
q), порождающей данные, переходят к этапу оценивания
коэффициентов модели. На этом
этапе обычно используется метод максимального правдоподобия
, который в конечном счете
сводится к методу наименьших квадратов. За исключением некоторых наиболее простых
случаев (например, модели AR(1)), эта задача решается итерационными методами,
требующими задания некоторых “начальных” (“стартовых”) значений параметров, которые
затем последовательно уточняются.
В качестве таких начальных значений можно использовать предварительные оценки,
полученные на первом этапе. Такие начальные значения можно найти, приравнивая
неизвестные “истинные” значения автокорреляций ρ(k) значениям r(k) выборочной
автокорреляционной функции и используя функциональную связь между значениями ρ(k) и
значениями коэффициентов модели. Например, если оценивается модель AR(p), то
коэффициенты a
1
, …, a
p
определяются из системы первых p уравнений Юла – Уокера
, ,,1 ),()(
1
pkjkak
p
j
j
K=−=
∑
=
ρρ
в которые вместо неизвестных значений ρ(1), …, ρ(p) автокорреляций подставляются
наблюдаемые (вычисляемые по реализации ряда) значения r(1), …, r(p) выборочных
автокорреляций.
При оценивании моделей с MA(q) составляющей (q > 0) существенным оказывается
условие обратимости
, сформулированное в разд. 2.5. Покажем это на примере MA(1) модели
X
t
–
µ
= ε
t
+ bε
t–1
, t = 1, … , T .
Имея наблюдаемые значения x
1
, x
2
, … , x
T
, мы последовательно выражаем ε
1
, ε
2
, … , ε
T
через
эти значения и (ненаблюдаемое) значение ε
0
:
ε
1
= X
1
–
µ
– bε
0
,
ε
2
= X
2
–
µ
– bε
1
= X
2
–
µ
– b(X
1
–
µ
– bε
0
) = (X
2
–
µ
) – b(X
1
–
µ
) + b
2
ε
0
,
…
ε
T
= X
T
–
µ
– bε
T – 1
= (X
T
–
µ
) – b(X
T – 1
–
µ
) + b
2
(X
T – 2
–
µ
) –
+(–1)
T – 1
b
T – 1
(X
1
–
µ
) + (–1)
T
b
T
ε
0
.
( )
SIC σ~ p2, q = lnσ~ p2, q + ( p + q)
ln T
T
.
( )
Существенно, что SIC σ~ p2, q – возрастающая функция от p и q , когда p ≥ p0 , q ≥ q0 , что
ведет к состоятельности оценок ( ~ p , q~ ) .
3.2. Оценивание коэффициентов модели
После того как произведена идентификация (стационарной) модели ARMA, т.е. на
основании имеющихся наблюдений принято решение о значениях p, q в модели ARMA(p,
q), порождающей данные, переходят к этапу оценивания коэффициентов модели. На этом
этапе обычно используется метод максимального правдоподобия, который в конечном счете
сводится к методу наименьших квадратов. За исключением некоторых наиболее простых
случаев (например, модели AR(1)), эта задача решается итерационными методами,
требующими задания некоторых “начальных” (“стартовых”) значений параметров, которые
затем последовательно уточняются.
В качестве таких начальных значений можно использовать предварительные оценки,
полученные на первом этапе. Такие начальные значения можно найти, приравнивая
неизвестные “истинные” значения автокорреляций ρ(k) значениям r(k) выборочной
автокорреляционной функции и используя функциональную связь между значениями ρ(k) и
значениями коэффициентов модели. Например, если оценивается модель AR(p), то
коэффициенты a1, …, ap определяются из системы первых p уравнений Юла – Уокера
p
ρ (k ) = ∑ a j ρ (k − j ), k = 1,K, p ,
j =1
в которые вместо неизвестных значений ρ(1), …, ρ(p) автокорреляций подставляются
наблюдаемые (вычисляемые по реализации ряда) значения r(1), …, r(p) выборочных
автокорреляций.
При оценивании моделей с MA(q) составляющей (q > 0) существенным оказывается
условие обратимости, сформулированное в разд. 2.5. Покажем это на примере MA(1) модели
Xt – µ = εt + bεt–1 , t = 1, … , T .
Имея наблюдаемые значения x1, x2, … , xT , мы последовательно выражаем ε1, ε2, … , εT через
эти значения и (ненаблюдаемое) значение ε0 :
ε1 = X1 – µ – bε0 ,
ε2 = X2 – µ – bε1 = X2 – µ – b(X1 – µ – bε0) = (X2 – µ) – b(X1 – µ) + b2 ε0,
…
εT = XT – µ – bεT – 1 = (XT – µ) – b(XT – 1– µ) + b2(XT – 2– µ) –
+(–1)T – 1 b T – 1 (X1 – µ) + (–1)T b T ε0 .
Страницы
- « первая
- ‹ предыдущая
- …
- 47
- 48
- 49
- 50
- 51
- …
- следующая ›
- последняя »
