ВУЗ:
Составители:
СПИСОК ИЛЛЮСТРАЦИЙ
7.1 Алгебраически эквивалентные задачи, решаемые методом наименьших квадратов
значений невязки v или среднего квадрата погрешности e: (a) — оптимальное мо-
делирование неизвестной системы по экспериментальным условиям A и данным
z; (b) — оптимальное оценивание неизвестного вектора по наблюдениям Ax в при-
сутствии случайных помех v с характеристиками E {v} = 0 и E
vv
T
= I . . . . . 108
7.2 Геометрия преобразования Хаусхолдера. Задача 1 (прямая): даны векторы u и y,
найти вектор y
r
, отраженный от гиперплоскости U
⊥
. . . . . . . . . . . . . . . . . . 112
7.3 Геометрия преобразования Хаусхолдера. Задача 2 (обратная): даны векторы y и
y
r
, найти вектор u, задающий отражающую гиперплоскость U
⊥
; здесь y
r
= se
1
=
=
s
0 ···0
T
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.4 Представление возможных случаев применения теоремы 7.1 к матрице A(m, n);
(a) недоопределенная система: k = m −1 ≤ n; (b) определенная система: k = n −1,
m = n; (c) переопределенная система: k = n < m; (d) k < n < m . . . . . . . . . . . 115
7.5 Вверху: Сохранение преобразования T и вычисление вектора y = T z, ∀y ∈ R
m
.
Внизу: Вычисление матрицы A
−1
после сохранения преобразования T . . . . . . . 121
7.6 Геометрия вращений . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
7.7 Вычисление матрицы P
1,j
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
7.8 Преобразование Гивенса: (a) столбцово ориентированная схема вычисления мат-
рицы P A, где P = P
(j)
при j = min (m − 1, n) (нижняя матрица слева); (б)
вычисление координаты r вектора (a, b)
T
, повернутого до совмещения с первой
осью, а также косинуса и синуса угла поворота и рабочего признака ζ; (в) строчно
ориентированная схема вычисления матрицы P A (верхняя матрица (г) восстанов-
ление косинуса и синуса угла поворота из признака ζ; (д) получение вектора y
теми преобразованиями P
j,i
произвольного вектора z ∈ R
m
, которые сохранены в
рабочих признаках ζ
j,i
и восстанавливаются из них; (е) вследствие п. (б) векторы
1, 2, 3 и 4 поворачиваются к положительному направлению первой координатной
оси, а векторы 5, 6, 7 и 8 — к отрицательному направлению этой оси. . . . . . . . 125
10.1 Теорема об ортогональной проекции . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
10.2 Матрица A и ее псевдообратная A
+
[13] . . . . . . . . . . . . . . . . . . . . . . . . . 213
10.3 Проектирование вектора на линейное подпространство . . . . . . . . . . . . . . . . 229
11.1 Линейная задача наименьших квадратов . . . . . . . . . . . . . . . . . . . . . . . . 239
11.2 Включение априорных данных в линейную задачу НК . . . . . . . . . . . . . . . . 242
11.3 Рекурсия МНК в стандартной ковариационной форме (схем а Калмана). Этап 1
— обновление модели по наблюдениям. Этап 2 — экстраполяция модели между
наблюдениями. Априорная модель дает предсказание ˆz для отклика z объекта.
Разность ν имеет смысл обновляющего процесса. Весовая матрица K, умноженная
на ν, обеспечивает обновление априорной модели по наблюдению z, т. е. переход к
апостериорной модели . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
11.4 Представление экспериментальных данных z в виде результата измерения неиз-
вестного вектора x с помощью матрицы A в присутствии случайных ошибок v . . 252
11.5 Статистическая задача получения оценки ˆx по критерию МАВ и ее решение (пол-
ная статистическая интерпретация МНК-решения). М ежду моментами получения
текущих данных апостериорные данные занимают место априорных данных, и
процесс решения повторяется . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
13.1 Сечение поверхности критерия качества J(x) = (z−Ax)
T
(z−Ax) (для упражнения
13.10) плоскостью уровня . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304
350
Страницы
- « первая
- ‹ предыдущая
- …
- 348
- 349
- 350
- 351
- 352
- …
- следующая ›
- последняя »
