Составители:
Рубрика:
7
1. В процессе оптимизации одной из основных проблем является выбор
величины шага. Слишком малая величина шага делает поиск весьма
трудоемким, большой шаг существенно сокращает поиск, но может привести
к потере точности результата. Выбор величины шага обычно осуществляется
следующими способами:
1) величина шага берется равной нескольким процентам от величины
оптимизируемой функции в некоторой точке,
2) величина шага устанавливается по заранее оговоренным правилам.
Окончание поиска связывается с некоторой величиной – погрешностью
(точностью ) определения экстремума и задаваемой перед началом поиска и
характеризующейся соотношением:
Х
*
- Х ≤ E
зад
,
где Х
*
- истинная точка экстремума, Х - точка экстремума, найденная в
результате поиска.
Для оптимизации задается допустимый интервал изменения переменной.
Прямые методы
Прямые методы обладают большим достоинством состоящим в том, что не
требуется дифференцируемости целевой функции и целевая функция может быть
задана не только аналитически, но и не аналитически (например в табличной
форме).
Недостатками являются требование унимодальности целевой функции в
заданном интервале изменения переменной, большое количество вычислений.
Существует несколько видов прямых методов, наиболее употребительными
являются:
- метод равномерного поиска или перебора;
- метод поразрядного поиска;
- метод исключения отрезков;
а) метод деления отрезка пополам (метод дихотомии);
б) метод золотого сечения.
в) метод Гаусса-Зейделя
Рассмотрим эти методы подробнее.
Метод равномерного поиска.
Суть метода состоит в разбиении интервала поиска [ a, b ] на n равных
частей, количество которых определяется в привязке к заданной погрешности
определения местоположения экстремума по формуле
()
зад
i
Е
ab
n
−
= ,
В процессе оптимизации рассматривается множество точек ,численное
значение которых вычисляемых по формуле
()
n
abi
ax
i
−
+=
, где i = 0, 1 ... n
7 1. В процессе оптимизации одной из основных проблем является выбор величины шага. Слишком малая величина шага делает поиск весьма трудоемким, большой шаг существенно сокращает поиск, но может привести к потере точности результата. Выбор величины шага обычно осуществляется следующими способами: 1) величина шага берется равной нескольким процентам от величины оптимизируемой функции в некоторой точке, 2) величина шага устанавливается по заранее оговоренным правилам. Окончание поиска связывается с некоторой величиной – погрешностью (точностью ) определения экстремума и задаваемой перед началом поиска и характеризующейся соотношением: Х* - Х ≤ E зад , где Х* - истинная точка экстремума, Х - точка экстремума, найденная в результате поиска. Для оптимизации задается допустимый интервал изменения переменной. Прямые методы Прямые методы обладают большим достоинством состоящим в том, что не требуется дифференцируемости целевой функции и целевая функция может быть задана не только аналитически, но и не аналитически (например в табличной форме). Недостатками являются требование унимодальности целевой функции в заданном интервале изменения переменной, большое количество вычислений. Существует несколько видов прямых методов, наиболее употребительными являются: - метод равномерного поиска или перебора; - метод поразрядного поиска; - метод исключения отрезков; а) метод деления отрезка пополам (метод дихотомии); б) метод золотого сечения. в) метод Гаусса-Зейделя Рассмотрим эти методы подробнее. Метод равномерного поиска. Суть метода состоит в разбиении интервала поиска [ a, b ] на n равных частей, количество которых определяется в привязке к заданной погрешности определения местоположения экстремума по формуле ni = (b − a ) , Е зад В процессе оптимизации рассматривается множество точек ,численное значение которых вычисляемых по формуле i(b − a ) xi = a + , где i = 0, 1 ... n n
Страницы
- « первая
- ‹ предыдущая
- …
- 6
- 7
- 8
- 9
- 10
- …
- следующая ›
- последняя »