Вычислительные методы алгебры и оценивания. Семушин И.В. - 251 стр.

UptoLike

Составители: 

11.9 Полная статистическая интерпретация рекурсии в МНК
который и составляет алгоритм Поттера. Он численно бо лее устойчив, чем
стандартный ковариационный алгоритм Калмана (11.34), но ему эквивален-
тен. В целом, для него характерно следующее .
Вычисление
ˆ
S в (11.35) равносильно счету с двойной точностью матрицы
ˆ
P в (11.34) при использовании той же разрядности чисел в компьютере,
или, иначе, равносильная точность вычислений матрицы
ˆ
P может быть
достигнута значительно быстрее. Для матрицы
ˆ
P тепе рь отсутствует опас-
ность потери положительной определенности, присущая операции вычита-
ния в (11.34), поскольку здесь вычисляют
ˆ
S, а
ˆ
P =
ˆ
S
ˆ
S
T
и
ˆ
P > 0 при
det(
ˆ
S) 6= 0. Недостатком алгоритма (11.35) я в ля ется наличие операции
извлечения квадратного корня, отдельной для каждого скалярного наблю-
дения z = a
T
x+v, и возможная потеря специального елательно, треуголь-
ного) вида матрицы
ˆ
S в общем случае. Де йствительно, для экономии памяти
и объема вычислений обычно стре м ятся иметь матрицы
ˆ
S и
˜
S в виде тре-
угольных мат риц (обе нижние треугольные или обе верхние треуголь-
ные), что соответствует разложениям Холес ского:
ˆ
P =
ˆ
S
ˆ
S
T
и
˜
P =
˜
S
˜
S
T
.
Однако, если стартовать с матрицы
˜
S треугольного вида, выполняя иници-
ализацию в с о о т ветствии с (11.27), то из-за вычитания в (11.35) матрица
ˆ
S в
общем случае не остается треуго льной. Например, пусть для
ˆ
S и
˜
S выбрана
верхняя треугольная форма. Тогда то лько при a = λ(1, 0, . . . , 0)
T
, где λ
скаляр, для
ˆ
S в (11.35) будет сохранена та же верхняя треугольная фо рма,
благодаря чему выполнение этапа экстраполяции, со гласно (11.29), сводится
к простому присваиванию:
˜
S :=
ˆ
S. Если же выбранная для
˜
S треугольная
форма будет утрачена, то этап экстраполяции матрицы потребует предва-
рительной триангуляризации матрицы
ˆ
S, то есть операции
˜
S := triang (
ˆ
S).
Триангуляризация triang (·) должна быть выполнена ортогональным преоб -
разованием матрицы (·), например, преобразованиями Хаусхолдера, Гивенса
или же Грама–Шмидта, которые рассматривались выше (разд. 7).
11.9 Полная статистическая интерпретация рекурсии в
МНК
Простая статистическая интерпретация МНК-решения, данная в п. 11.3,
позволила объяснить в п. 11.4 идею включения априорных данных в про-
цесс решения задачи о наименьших квадратах. Она была «простой» в том
смысле, что предполагала случайную природу лишь для ошибки v в экспери-
ментальных данных z, (11.1), при необходимости находить апостериорную
251