Методы оптимизации. Рейзлин В.И. - 14 стр.

UptoLike

Составители: 

Рубрика: 

В особенности от определения величины
)(k
и направления )(
)(k
xs выделяют
ряд методов оптимизации.
1.1. Градиентные методы
Градиентные методы в отличие от методов прямого поиска, которые
используют в процедурах поиска только значения целевой функции в
исследуемых точках, предполагают наличие информации о производных
функции. Это позволяет сократить количество необходимых вычислений
значений исследуемой функции.
Если в качестве направления поиска )(
)(k
xs принять направление
антиградиента функции
)()(
)()( kk
xfxs  ,
где
n
x
f
x
f
x
f
f
;...;;(
21
) - градиент функции,
то получим из (1) соотношение
)(
)()()()1( kkkk
xfxx
, (2)
оторое определяет реализацию метода наискорейшего спуска, или метода
Коши. В этом методе значение
)(k
на каждой итерации вычисляется путем
решения задачи поиска минимума функции )(
)1( k
xf вдоль направления )(
)(k
xf
с помощью того или иного метода одномерного поиска.
Метод обладает высокой надежностью и устойчивостью. Однако методу
свойственны и некоторые недостатки /1/.
Приняв в качестве параметра
)(k
в (1) некоторое положительное число
,
получим вычислительную схему
)(
)()()1( kkk
xfxx
, (3)
которая определяет реализацию простейшего градиентного метода при
поиске минимума многомерной функции. Метод обладает рядом недостатков, из
которых следует отметить следующие: во-первых, возникает необходимость
выбора подходящего значения параметра
; и во-вторых, методу свойственна
медленная сходимость к точке минимума вследствие малости градиента
f
в
окрестности почти стационарной области.
Наряду с приведенными выше для решения задачи оптимизации
используется метод Гаусса-Зайделя, известный еще под названием метода
покоординатного спуска. Суть метода заключается в организации поиска
минимума функции последовательно по каждой координате. Пусть установлена