Составители:
Рубрика:
7
1. В процессе оптимизации одной из основных проблем является выбор
величины шага. Слишком малая величина шага делает поиск весьма
трудоемким, большой шаг существенно сокращает поиск, но может привести
к потере точности результата. Выбор величины шага обычно осуществляется
следующими способами:
1) величина шага берется равной нескольким процентам от величины
оптимизируемой функции в некоторой точке,
2) величина шага устанавливается по заранее оговоренным правилам.
Окончание поиска связывается с некоторой величиной – погрешностью
(точностью ) определения экстремума и задаваемой перед началом поиска и
характеризующейся соотношением:
Х
*
- Х ≤ E
зад
,
где Х
*
- истинная точка экстремума, Х - точка экстремума, найденная в
результате поиска.
Для оптимизации задается допустимый интервал изменения переменной.
Прямые методы
Прямые методы обладают большим достоинством состоящим в том, что не
требуется дифференцируемости целевой функции и целевая функция может быть
задана не только аналитически, но и не аналитически (например в табличной
форме).
Недостатками являются требование унимодальности целевой функции в
заданном интервале изменения переменной, большое количество вычислений.
Существует несколько видов прямых методов, наиболее употребительными
являются:
- метод равномерного поиска или перебора;
- метод поразрядного поиска;
- метод исключения отрезков;
а) метод деления отрезка пополам (метод дихотомии);
б) метод золотого сечения.
в) метод Гаусса-Зейделя
Рассмотрим эти методы подробнее.
Метод равномерного поиска.
Суть метода состоит в разбиении интервала поиска [ a, b ] на n равных
частей, количество которых определяется в привязке к заданной погрешности
определения местоположения экстремума по формуле
()
зад
i
Е
ab
n
−
= ,
В процессе оптимизации рассматривается множество точек ,численное
значение которых вычисляемых по формуле
()
n
abi
ax
i
−
+=
, где i = 0, 1 ... n
7
1. В процессе оптимизации одной из основных проблем является выбор
величины шага. Слишком малая величина шага делает поиск весьма
трудоемким, большой шаг существенно сокращает поиск, но может привести
к потере точности результата. Выбор величины шага обычно осуществляется
следующими способами:
1) величина шага берется равной нескольким процентам от величины
оптимизируемой функции в некоторой точке,
2) величина шага устанавливается по заранее оговоренным правилам.
Окончание поиска связывается с некоторой величиной – погрешностью
(точностью ) определения экстремума и задаваемой перед началом поиска и
характеризующейся соотношением:
Х* - Х ≤ E зад ,
где Х* - истинная точка экстремума, Х - точка экстремума, найденная в
результате поиска.
Для оптимизации задается допустимый интервал изменения переменной.
Прямые методы
Прямые методы обладают большим достоинством состоящим в том, что не
требуется дифференцируемости целевой функции и целевая функция может быть
задана не только аналитически, но и не аналитически (например в табличной
форме).
Недостатками являются требование унимодальности целевой функции в
заданном интервале изменения переменной, большое количество вычислений.
Существует несколько видов прямых методов, наиболее употребительными
являются:
- метод равномерного поиска или перебора;
- метод поразрядного поиска;
- метод исключения отрезков;
а) метод деления отрезка пополам (метод дихотомии);
б) метод золотого сечения.
в) метод Гаусса-Зейделя
Рассмотрим эти методы подробнее.
Метод равномерного поиска.
Суть метода состоит в разбиении интервала поиска [ a, b ] на n равных
частей, количество которых определяется в привязке к заданной погрешности
определения местоположения экстремума по формуле
ni =
(b − a ) ,
Е зад
В процессе оптимизации рассматривается множество точек ,численное
значение которых вычисляемых по формуле
i(b − a )
xi = a + , где i = 0, 1 ... n
n
Страницы
- « первая
- ‹ предыдущая
- …
- 6
- 7
- 8
- 9
- 10
- …
- следующая ›
- последняя »
