Методы оптимизации и расчеты на ЭВМ технико-экономических задач. Ромашова О.Ю. - 102 стр.

UptoLike

Составители: 

Рубрика: 

102
Критерий выбора шага спуска h
Надо двигаться такими шагами, чтобы прийти к минимуму це-
левой функции за наименьшее число итераций!
Для конкретной задачи шаг h принимают подбором, либо, если
это возможно, на каждом шаге спуска оценивают его максимальное
значение с последующим дроблением, пока не будет достигнуто убыва-
ния функции на этом направлении. Выбранный шаг h позволяет
пере-
меститься в направлении антиградиента из точки ),...,,(
00
2
0
1
0
n
xxxX
в точку ),...,,(
11
2
1
1
1
n
xxxX (см. рис. 3.11, б), координаты которой вычис-
ляются:
1
0
0
1
1
1
)(
x
XF
hxx
= ;
2
0
0
2
1
2
)(
x
XF
hxx
= ;…
n
nn
x
XF
hxx
=
)(
0
01
.
Алгоритм градиентного метода в матричной форме приведен на
рис. 3.13. Развернутый алгоритм градиентного спуска для целевой
функции двух переменных представлен на рис. 3.14.
Градиентный метод
Ввод
- начальная точка спуска;
- начальный шаг;
- погрешность расчета
X
h
0
ε
Функция
F(X)
Функция
()FX
Функция
()FX
Градиент
()FX
ε
F
0
X
1
=X h F
0
- ⋅∇
0
X
1
F
1
F
min
X
0
F
0
X
0
F
0
FF
10
<
hh=/2
X X
01
=
XX
*
=
0
FF
01
=
Нет
Нет
Да
Да
X
*
min
FX( )
Вывод
- точка минимума;
минимальное
значение функции
:
X*
F -
mi n
Рис. 3.13. Алгоритм градиентного метода в общем виде