Регрессионный анализ данных на ПК в примерах и задачах (система Statistica). Богатова В.П. - 32 стр.

UptoLike

Составители: 

Рубрика: 

Рисунок 60. Краткие результаты множественной регрессии по модели (31)
Из таблицы видим , что скорректированный коэффициент детерминации
увеличился более чем на 1%, зато ошибка прогноза уменьшилась более чем в
500(!) раз и все коэффициенты значимы . Отличная модель:
ln1.170.31ln0.48ln.
zxy
=++
И все- таки вопреки пословице «От добра добра не ищут» построим по-
линомиальную относительно логарифмов переменных регрессию :
22
012345
lnlnlnlnlnlnln
zxyxyxy
ββββββ=+++++⋅ (32)
Добавим в таблицу Regresb.sta еще три столбца LQX, LQY, LOGXY,
заполним их значениями квадратов логарифмов и произведением логарифмов не-
зависимых переменных. Далее хорошо известным алгоритмом :
Analysis Startup Panel - ,
отбираем переменные в соответствии с моделью (32) и рис.61 ОК ОК,
- щелкаем кнопку и видим на экране таблицу (рис.61):
  Рисунок 60. Краткие результаты множественной регрессии по модели (31)


     Из таблицы видим, что скорректированный коэффициент детерминации
увеличился более чем на 1%, зато ошибка прогноза уменьшилась более чем в
500(!) раз и все коэффициенты значимы. Отличная модель:

                          ln z =1.17 +0.31ln x +0.48 ln y.

        И все-таки вопреки пословице «От добра добра не ищут» построим по-
линомиальную относительно логарифмов переменных регрессию:

        ln z =β0 +β1 ln x +β2 ln y +β3 ln 2 x +β4 ln 2 y +β5 ln x ⋅ ln y           (32)


         Добавим в таблицу Regresb.sta еще три столбца LQX, LQY, LOGXY,
заполним их значениями квадратов логарифмов и произведением логарифмов не-
зависимых переменных. Далее хорошо известным алгоритмом:


                   Analysis – Startup Panel     -               ,

отбираем переменные в соответствии с моделью (32) и рис.61                 – ОК   – ОК,


- щелкаем кнопку                                и видим на экране таблицу (рис.61):