ВУЗ:
Составители:
-17-
Введём исходные данные в виде векторов Х и Y. Затем вы-
зовем функцию slope(X,Y) , где Х – независимая переменная, она
должна быть представлена вектор-столбцом (поэтому если мы
представили её строкой, то необходимо транспонирование), Y –
вектор-столбец зависимой переменной, которая содержит ошибку
измерения. Функция slope определяет наклон прямой линии, наи-
более близко
проходящей к точкам массива (X,Y).
Теперь вызовем функцию intercept(X,Y), которая по этим же
данным определяет, где находится пересечение наилучшей пря-
мой с осью Y.
Поскольку наклон и отсечка на оси Y известны, мы можем
написать уравнение прямой: r(x)=a·x+b
Теперь можем построить два графика вместе, чтобы уви-
деть, как наилучшая прямая проходит по данным
эксперимен-
тальным точкам.
Обобщением линейной регрессии является заложенная в
систему MathCad также возможность выполнения линейной рег-
рессии общего вида, когда заданная совокупность точек прибли-
жается функцией вида:
F(x,K
1
,K
2
…K
n
)=K
1
·F
1
(x)+K
2
·F
2
(x)+…+K
n
·F
n
(x)
Причем, сами функции F
i
(x) могут быть нелинейными. Для
реализации линейной регрессии общего вида используется функ-
ция linfit(VX,VY,F), которая возвращает вектор коэффициентов
линейной регрессии общего вида K. Вектор F должен при этом
содержать функции F
i
(x), записанные в символьном виде (см.
п. 1.12 настоящего раздела).
Если известно, что функциональная зависимость между экс-
периментальными данными является полиномом или носит экс-
поненциальный характер, следует воспользоваться соответст-
вующими функциями регрессии из раздела "Regression and
Smoothing".
Функция Regress зависит от трёх параметров: вектора-
столбца независимых переменных, вектора-столбца зависимых
переменных и скаляра,
определяющего степень кривой подгонки.
Сама функция Regress является вектор-столбцом, причём первые
-17- Введём исходные данные в виде векторов Х и Y. Затем вы- зовем функцию slope(X,Y) , где Х – независимая переменная, она должна быть представлена вектор-столбцом (поэтому если мы представили её строкой, то необходимо транспонирование), Y – вектор-столбец зависимой переменной, которая содержит ошибку измерения. Функция slope определяет наклон прямой линии, наи- более близко проходящей к точкам массива (X,Y). Теперь вызовем функцию intercept(X,Y), которая по этим же данным определяет, где находится пересечение наилучшей пря- мой с осью Y. Поскольку наклон и отсечка на оси Y известны, мы можем написать уравнение прямой: r(x)=a·x+b Теперь можем построить два графика вместе, чтобы уви- деть, как наилучшая прямая проходит по данным эксперимен- тальным точкам. Обобщением линейной регрессии является заложенная в систему MathCad также возможность выполнения линейной рег- рессии общего вида, когда заданная совокупность точек прибли- жается функцией вида: F(x,K1,K2…Kn)=K1·F1(x)+K2·F2(x)+…+Kn·Fn(x) Причем, сами функции Fi(x) могут быть нелинейными. Для реализации линейной регрессии общего вида используется функ- ция linfit(VX,VY,F), которая возвращает вектор коэффициентов линейной регрессии общего вида K. Вектор F должен при этом содержать функции Fi(x), записанные в символьном виде (см. п. 1.12 настоящего раздела). Если известно, что функциональная зависимость между экс- периментальными данными является полиномом или носит экс- поненциальный характер, следует воспользоваться соответст- вующими функциями регрессии из раздела "Regression and Smoothing". Функция Regress зависит от трёх параметров: вектора- столбца независимых переменных, вектора-столбца зависимых переменных и скаляра, определяющего степень кривой подгонки. Сама функция Regress является вектор-столбцом, причём первые
Страницы
- « первая
- ‹ предыдущая
- …
- 15
- 16
- 17
- 18
- 19
- …
- следующая ›
- последняя »