Составители:
Рубрика:
65
ных, по-новому оценить структуру изучаемого объекта или процес-
са. Но даже если число значимых главных компонент оказалось
достаточно большим, результаты компонентного анализа позволяют
устранить последствия мультиколлинеарности.
Пусть
Х – по-прежнему информационная матрица, но для уко-
роченного вектора входных переменных
х. Выборочная ковариаци-
онная матрица
K
х
определяется выражением
K
x
=M(X
t
X)/(n–1).
Основные неприятности мультиколлинеарности проистекают из-
за того, что при ее наличии определитель |
X
t
X | близок к нулю.
Матрица
K
х
подобна матрице K
z
= Λ по определению. Подобные
матрицы имеют одинаковые собственные значения и одинаковые
определители. Следовательно:
|
K
x
| = |Λ| =
1
.
=
λ
∏
m
i
i
Это выражение показывает, что ответственность за близость оп-
ределителя
|K
х
| к нулю несут последние наименьшие собственные
значения матрицы
|K
x
|. Напомним, что они же являются дисперсия-
ми
главных компонент. Если положить равным нулю некоторое ма-
лое собственное значение λ
i
, то в соответствии с уравнением
K
x
U
i
= λ
i
U
i
нулевое значение примет собственный вектор U
i
и нулевым окажет-
ся столбец
i матрицы U. Приравнивая нулю l последних, пренебре-
жимо малых собственных значений, получим матрицу
U
l
, у которой
равны нулю последние
l столбцов и которая, следовательно, имеет
ранг
m–l. Преобразование
x = U
l
z
в этом случае фактически выражает m координат вектора x через
m–l главных компонент. «Подправим» исходные данные согласно
выражению
x
i
= U
l
z
i
, i = 1, 2, …, n.
Для исправленных исходных данных компоненты x
j
, j = 1, 2, …,
m
становятся явно линейно зависимыми, причем l из них являются
линейными комбинациями
m–l остальных. Таким образом, задача
заключается в том, чтобы в исправленной матрице
X найти m–l ли-
нейно независимых столбцов. Задача эта хотя и трудоемкая, но
66
вполне разрешимая. Получив совокупность линейно независимых
столбцов в виде матриц
X
m–l
, а уравнение множественной регрессии
в виде
0
1
,
ml
jj
j
ya ax
−
=
=+
∑
можно использовать аппарат множественного регрессионного ана-
лиза для модели, свободной от мультиколлинеарности, причем для
оценки параметров в матрицу
X
m–l
можно «вернуть» прежние «не-
исправленные» данные.
4.4.3. Факторный анализ
Факторный анализ, в отличие от метода главных компонент,
ориентируется не на дисперсии ковариационной матрицы, а на ко-
эффициенты корреляции. Формально факторный анализ похож на
метод главных компонент – факторы здесь также являются случай-
ными величинами, а входные переменные выражаются через их ли-
нейные комбинации. Но на этом сходство оканчивается. Факторы не
обязательно
ортогональны и могут быть коррелированы между со-
бой. Отбор факторов производится на основании анализа того, на-
сколько присоединение нового фактора уменьшает остаточную кор-
реляцию между входными переменными. В этом отношении фак-
торный метод имеет общие черты с изложенным выше методом по-
шагового отбора. Существенная разница, помимо используемого
аппарата, состоит в
том, что в методе пошагового отбора отбирают-
ся (исключаются) входные переменные, имеющие вполне опреде-
ленный экономический смысл. В факторном методе факторы – не-
которые абстрактные переменные, назначение которых – меньшим
числом исчерпать корреляцию входных переменных. Впрочем, в
ряде случаев им удается придать вполне определенный экономиче-
ский смысл.
Итак, пусть
z
1
, z
2
, …, z
k
– факторы, а U – матрица размером
(
m×k). Элементы u
ij
матрицы называются факторными нагрузками.
Число факторов
k может быть задано, но может определяться в про-
цессе построения факторной модели. Естественно, имеет смысл
строить такую модель, если
k<m. В случае мультиколлинеарности
входных переменных это обычно имеет место. Задачей факторного
анализа является, таким образом, определение числа необходимых
Страницы
- « первая
- ‹ предыдущая
- …
- 31
- 32
- 33
- 34
- 35
- …
- следующая ›
- последняя »