Компьютерное моделирование и оптимизация технологических процессов и оборудования. Дворецкий С.И - 34 стр.

UptoLike

осредненным условиям, прогнозы не могут быть безошибочными. Применяя вероятностные методы,
как будет показано далее, можно вычислить вероятность того, что ошибка прогноза не выйдет за опре-
деленные границы.
Уравнения регрессии классифицируют на линейные (корреляционные) и нелинейные.
Уравнение линейной регрессии (истинное) запишем в следующем виде
)(}|{
10
xxYM
xX
β+β=η=
=
. (2.14)
Оценки истинных параметров модели
0
β
и
1
β
обозначим через b
0
и b
1
, а оценку η через y
ˆ
. Подста-
вив в (2.14) вместо истинных параметров их оценки, получим уравнение линейной регрессии
)(
ˆ
10
xxbby +=
. (2.15)
Оценки b
0
и
b
1
уравнения регрессии (2.15) будем находить из условия минимума квадратов откло-
нений средних значений экспериментальных данных
)(
cр
jy
от вычисленных по уравнению регрессии
)(
ˆ
j
xy
, т.е. по методу наименьших квадратов (МНК):
[]
∑∑
==
==
n
j
n
j
bb
jjjj
xxbbjyPxyjyPbbФ
11
,
2
10cр
2
cр10
10
min)()())(
ˆ
)((),( ,
где
j
P число повторных измерений )(
~
jy . Используя необходимые (и для данного случая достаточные)
условия минимума функции ),(
10
bbФ , получим систему нормальных уравнений:
[
]
[]
.0)()()(2
,0)()(2
1
10cр
1
1
10cр
0
=
=
==
==
n
j
jjj
n
j
jj
xxxxbbjyP
b
Ф
xxbbjyP
b
Ф
Приводя подобные члены, получим:
,))(()()(
,)()(
1
cр
1
2
1
1
0
1
cр
1
1
1
0
===
===
=+
=+
n
j
jj
n
j
jj
n
j
jj
n
j
j
n
j
jj
n
j
j
xxjyPxxPbxxPb
jyPxxPbPb
откуда имеем:
.
)(
))((
,
)(
1
2
1
cр
1
1
1
cр
0
=
=
=
=
===
n
j
jj
n
j
jj
n
j
j
n
j
j
xxP
xxjyP
bY
P
jyP
b
Оценки, получаемые по методу наименьших квадратов, обладают минимальной дисперсией в клас-
се линейных оценок, т.е. являются несмещеннымиM{b
0
} = β
0
, M{b
1
} = β
1
. Их дисперсии рассчитыва-
ются следующим образом:
.
)(
}){(;}){(
1
2
2
)(
22
11
1
2
)(
22
00
10
==
σ
=β
σ
=β
n
j
jj
jy
b
n
j
j
jy
b
xxP
SbM
P
SbM
Найдем несмещенную оценку
2
)(
jy
σ :