Статистические методы и модели. Костин В.Н - 22 стр.

UptoLike

Составители: 

Рубрика: 

22
()
(
)
(
)
t
t
P
t
P
t
t
P
ij
+
=
+ ,
где
() ()
(
)
(
)
{
}
t
P
и
t
P
t
P
t
P
n
,,
21
= ;
ij
P
матрица вероятности переходов (1.26) – уравнение
Маркова.
Для однородной цепи Маркова вероятности переходов из
i-го в j-ое
состояние в прогнозе, в перспективе, во времени можно записать
()
(
)
tttPtmttP
m
ij
ij
+
=
+
,, ,
то есть матрицу переходов необходимо умножить на саму себя m раз, поэто-
му для однородности цепи Маркова существует эргодическое свойство, суть
которого состоит в том, что система в пределе переходит к установившемуся
состоянию
(
)
*
lim
ii
PtmtP
m
=+
,
где
*
i
P это предельные или финальные вероятности.
В этом случае к моменту времени
t
m
t
+
вероятности двух соседних
шагов m – 1, m равны между собой.
Тогда из уравнения Маркова получим вероятность k-го события
=
=
n
i
iK
i
K
PPP
1
.
При этом добавляется требование, что сумма всех вероятностей
=
=
n
i
i
P
1
1.
                        P(t + ∆t ) = P(t )⋅ Pij (t + ∆t ) ,

      где     P(t ) = { P1 (t ), P2 (t ), и Pn (t ) };
              Pij – матрица вероятности переходов (1.26) – уравнение
                     Маркова.

      Для однородной цепи Маркова вероятности переходов из i-го в j-ое
состояние в прогнозе, в перспективе, во времени можно записать

                       Pij (t , t + m∆t ) = P m (t , t + ∆t ) ,
                                                  ij


то есть матрицу переходов необходимо умножить на саму себя m раз, поэто-
му для однородности цепи Маркова существует эргодическое свойство, суть
которого состоит в том, что система в пределе переходит к установившемуся
состоянию

                            lim P (t + m∆t ) = Pi* ,
                            m →∞ i



      где     Pi* – это предельные или финальные вероятности.

      В этом случае к моменту времени t + m∆t вероятности двух соседних
шагов m – 1, m равны между собой.
      Тогда из уравнения Маркова получим вероятность k-го события

                                            n
                                PK = ∑ Pi ⋅ PiK .
                                           i =1


      При этом добавляется требование, что сумма всех вероятностей
                                     n
                                    ∑ Pi = 1.
                                    i =1




                                                                       22