ВУЗ:
Составители:
Рубрика:
Рисунок 60. Краткие результаты множественной регрессии по модели (31)
Из таблицы видим , что скорректированный коэффициент детерминации
увеличился более чем на 1%, зато ошибка прогноза уменьшилась более чем в
500(!) раз и все коэффициенты значимы . Отличная модель:
ln1.170.31ln0.48ln.
zxy
=++
И все- таки вопреки пословице «От добра добра не ищут» построим по-
линомиальную относительно логарифмов переменных регрессию :
22
012345
lnlnlnlnlnlnln
zxyxyxy
ββββββ=+++++⋅ (32)
Добавим в таблицу Regresb.sta еще три столбца LQX, LQY, LOGXY,
заполним их значениями квадратов логарифмов и произведением логарифмов не-
зависимых переменных. Далее хорошо известным алгоритмом :
Analysis – Startup Panel - ,
отбираем переменные в соответствии с моделью (32) и рис.61 – ОК – ОК,
- щелкаем кнопку и видим на экране таблицу (рис.61):
Рисунок 60. Краткие результаты множественной регрессии по модели (31) Из таблицы видим, что скорректированный коэффициент детерминации увеличился более чем на 1%, зато ошибка прогноза уменьшилась более чем в 500(!) раз и все коэффициенты значимы. Отличная модель: ln z =1.17 +0.31ln x +0.48 ln y. И все-таки вопреки пословице «От добра добра не ищут» построим по- линомиальную относительно логарифмов переменных регрессию: ln z =β0 +β1 ln x +β2 ln y +β3 ln 2 x +β4 ln 2 y +β5 ln x ⋅ ln y (32) Добавим в таблицу Regresb.sta еще три столбца LQX, LQY, LOGXY, заполним их значениями квадратов логарифмов и произведением логарифмов не- зависимых переменных. Далее хорошо известным алгоритмом: Analysis – Startup Panel - , отбираем переменные в соответствии с моделью (32) и рис.61 – ОК – ОК, - щелкаем кнопку и видим на экране таблицу (рис.61):