ИВС и АСУТП. Гаспер Б.С - 115 стр.

UptoLike

Составители: 

115
B
A
1
A
uy
e
Рис. 5.7.
Одношаговый прогноз для описания (5.164) определяется соотношением [14 ]
$
(,) (,)() [ (,)]()y
t
HqGqut Hq yt
θ
θθ θ
=+
−−11
1 . (5.166)
Рассчитаем предсказатель для модели (5.162). Подстановка (5.165) в (5.166)
дает:
$
( ) () [ ( )] ()y
t
Bqut Aq yt
θ
=+1
. (5.167)
Введем вектор
ϕ
() [ ( ), , ( ), ( ), , ( )]t yt yt n ut ut n
ab
T
=− 11KK. (5.168)
Тогда (5.167) можно переписать в виде
$
() ()y
t
tt
TT
θ
θϕ ϕ θ
==. (5.169)
Предсказатель представляет собой скалярное произведение известного вектора
данных
ϕ
(t) и вектора параметров
θ
. В статистике такую модель называют линей-
ной регрессией, а вектор
ϕ
(t) - регрессионным вектором.
В том случае, когда некоторые из коэффициентов многочленов A и B из-
вестны, мы приходим к линейной регрессии вида
$
() ()y
t
tt
T
θ
ϕθμ
=+, (5.170)
где член
μ
(t) известен. Далее для простоты обозначений, полагаем
μ
(t) = 0, что со-
вершенно допустимо.
С учетом (5.170) ошибка предсказания принимает вид
εθ ϕ θ
(, ) () ()tyt t
T
=− . (5.171)
Критерий наименьших квадратов для линейной регрессии (5.170) имеет
вид:
VZ
N
yt t
N
NT
t
N
( , ) [ () () ]
θϕθ
=−
=
11
2
2
1
, (5.172)
где
z
N
= (y(1), u(1), y(2), u(2), ..., y(N),u(N)). (5.173)
Оценка
$
θ
N
LS
вектора параметров
θ
по методу наименьших квадратов имеет вид:
$
arg min ( , ) ( ) ( ) ( ) ( )
θθϕϕϕ
N
LS
N
NT
t
N
t
N
VZ
N
tt
N
tyt==
=
=
∑∑
11
1
1
1
, (5.174)
где argmin f(x)- значение x, минимизирующее функцию f(x). Следовательно, argmin
V
N
(
θ
,Z
N
) есть значение вектора
θ
, минимизирующее функцию V
N
(
θ
,Z
N
).
                                                        e
                                                    1
                                                    A
                                 u           B                    y
                                              A
                                               Рис. 5.7.
Одношаговый прогноз для описания (5.164) определяется соотношением [14 ]
                    ⎛t⎞
                 y$ ⎜ ⎟ = H −1 (q ,θ )G (q ,θ )u(t ) + [1 − H −1 (q ,θ )] y (t ) .    (5.166)
                    ⎝θ ⎠
       Рассчитаем предсказатель для модели (5.162). Подстановка (5.165) в (5.166)
дает:
                               ⎛t⎞
                            y$ ⎜ ⎟ = B(q )u(t ) + [1 − A(q )] y (t ) .                (5.167)
                               ⎝θ ⎠
Введем вектор
                 ϕ (t ) = [ − y (t − 1),K ,− y (t − na ), u(t − 1),K , u(t − nb )]T . (5.168)
Тогда (5.167) можно переписать в виде
                                         ⎛t⎞
                                      y$ ⎜ ⎟ = θ T ϕ (t ) = ϕ T (t )θ .               (5.169)
                                         ⎝θ ⎠
Предсказатель представляет собой скалярное произведение известного вектора
данных ϕ(t) и вектора параметров θ. В статистике такую модель называют линей-
ной регрессией, а вектор ϕ(t) - регрессионным вектором.
       В том случае, когда некоторые из коэффициентов многочленов A и B из-
вестны, мы приходим к линейной регрессии вида
                                         ⎛t⎞
                                      y$ ⎜ ⎟ = ϕ T (t )θ + μ (t ) ,                   (5.170)
                                         ⎝θ ⎠
где член μ(t) известен. Далее для простоты обозначений, полагаем μ(t) = 0, что со-
вершенно допустимо.
       С учетом (5.170) ошибка предсказания принимает вид
                                  ε (t ,θ ) = y (t ) − ϕ T (t )θ .      (5.171)
       Критерий наименьших квадратов для линейной регрессии (5.170) имеет
вид:
                                           1 N 1
                         VN (θ , Z N ) = ∑ [ y (t ) − ϕ T (t )θ ]2 ,    (5.172)
                                           N t =1 2
где
                         zN = (y(1), u(1), y(2), u(2), ..., y(N),u(N)). (5.173)

Оценка θ$NLS вектора параметров θ по методу наименьших квадратов имеет вид:
                                                            −1
                                       ⎡1 N             ⎤  1 N
           θ N = arg minV N (θ , Z ) = ⎢ ∑ ϕ (t )ϕ (t ) ⎥ ⋅ ∑ ϕ (t ) y (t ) , (5.174)
            $ LS                  N               T

                                       ⎣ N t =1         ⎦  N t =1
где argmin f(x)- значение x, минимизирующее функцию f(x). Следовательно, argmin
VN(θ,ZN) есть значение вектора θ, минимизирующее функцию VN(θ,ZN).




                                                                                        115