Методические материалы для изучения алгоритмов реализации методов безусловной оптимизации непрерывных одномерных и многомерных унимодальных функций. Корнилов А.Г. - 8 стр.

UptoLike

Составители: 

Рубрика: 

7
1. В процессе оптимизации одной из основных проблем является выбор
величины шага. Слишком малая величина шага делает поиск весьма
трудоемким, большой шаг существенно сокращает поиск, но может привести
к потере точности результата. Выбор величины шага обычно осуществляется
следующими способами:
1) величина шага берется равной нескольким процентам от величины
оптимизируемой функции в некоторой точке,
2) величина шага устанавливается по заранее оговоренным правилам.
Окончание поиска связывается с некоторой величинойпогрешностью
(точностью ) определения экстремума и задаваемой перед началом поиска и
характеризующейся соотношением:
Х
*
- Х E
зад
,
где Х
*
- истинная точка экстремума, Х - точка экстремума, найденная в
результате поиска.
Для оптимизации задается допустимый интервал изменения переменной.
Прямые методы
Прямые методы обладают большим достоинством состоящим в том, что не
требуется дифференцируемости целевой функции и целевая функция может быть
задана не только аналитически, но и не аналитически (например в табличной
форме).
Недостатками являются требование унимодальности целевой функции в
заданном интервале изменения переменной, большое количество вычислений.
Существует несколько видов прямых методов, наиболее употребительными
являются:
- метод равномерного поиска или перебора;
- метод поразрядного поиска;
- метод исключения отрезков;
а) метод деления отрезка пополам (метод дихотомии);
б) метод золотого сечения.
в) метод Гаусса-Зейделя
Рассмотрим эти методы подробнее.
Метод равномерного поиска.
Суть метода состоит в разбиении интервала поиска [ a, b ] на n равных
частей, количество которых определяется в привязке к заданной погрешности
определения местоположения экстремума по формуле
()
зад
i
Е
ab
n
= ,
В процессе оптимизации рассматривается множество точек ,численное
значение которых вычисляемых по формуле
()
n
abi
ax
i
+=
, где i = 0, 1 ... n
                                               7

1. В процессе оптимизации одной из основных проблем является выбор
   величины шага. Слишком малая величина шага делает поиск весьма
   трудоемким, большой шаг существенно сокращает поиск, но может привести
   к потере точности результата. Выбор величины шага обычно осуществляется
   следующими способами:
    1) величина шага берется равной нескольким процентам от величины
оптимизируемой функции в некоторой точке,
    2) величина шага устанавливается по заранее оговоренным правилам.
Окончание поиска связывается с некоторой величиной – погрешностью
(точностью ) определения экстремума и задаваемой перед началом поиска и
характеризующейся соотношением:
                             Х* - Х ≤ E зад ,
где Х* - истинная точка экстремума, Х - точка экстремума, найденная в
результате поиска.
 Для оптимизации задается допустимый интервал изменения переменной.


                                  Прямые методы

    Прямые методы обладают большим достоинством состоящим в том, что не
требуется дифференцируемости целевой функции и целевая функция может быть
задана не только аналитически, но и не аналитически (например в табличной
форме).
    Недостатками являются требование унимодальности целевой функции в
заданном интервале изменения переменной, большое количество вычислений.
Существует несколько видов прямых методов, наиболее употребительными
являются:
            - метод равномерного поиска или перебора;
            - метод поразрядного поиска;
            - метод исключения отрезков;
              а) метод деления отрезка пополам (метод дихотомии);
              б) метод золотого сечения.
              в) метод Гаусса-Зейделя
    Рассмотрим эти методы подробнее.


                     Метод равномерного поиска.

       Суть метода состоит в разбиении интервала поиска [ a, b ] на n равных
частей, количество которых определяется в привязке к заданной погрешности
определения местоположения экстремума по формуле

                           ni =
                                  (b − a ) ,
                                   Е зад
      В процессе оптимизации рассматривается множество точек ,численное
значение которых вычисляемых по формуле
                           i(b − a )
                xi = a +             , где i = 0, 1 ... n
                              n