Экономические основы стабильности банковской системы России. Тен В.В - 64 стр.

UptoLike

Составители: 

Рубрика: 

вычисляют значение функции F(Х
2
). Если F(Х
1
) < F(Х
2
), то пробный шаг признается удачным и вычисляются
компоненты вектора градиента:
kj
x
XFXF
G
j
j
...,,,;
)()(
21
12
=
= . (52)
Если F(Х
1
) > F(Х
2
), то пробный шаг неудачен. Поэтому знаки всех приращений Dx
j
меняются на противоположные,
меняется и направление вектора градиента. Найдя нужное направление, выбирают величину шага a
i
и продолжают процесс,
выстраивая последовательность векторов {X}, удовлетворяющую условию (49).
Проблема выбора шагаважнейшая во всей процедуре. Именно способом выбора шага отличаются друг от друга
различные градиентные методы. Дело в том, что при малом шаге поиск будет почти наверняка успешным, т.е. сходящимся к
искомому оптимуму, но потребует много времени на вычисления. Большой шаг, экономя время, не гарантирует сходимости,
поскольку оптимум можно «проскочить». Наконец, бывают ситуации, когда процесс поиска зацикливается. Пусть нужно
найти минимум функции F(x) = bx
2
, где bположительное число. Для этой функции формула (50) имеет вид:
kkk
xbax )(21
1
=
+
. (53)
Рис. 1 Градиентный метод оптимизации
При определенных обстоятельствах возможна следующая ситуация: x
1
= -x
0
; x
2
= x
0
; x
3
= -x
0
..., т.е. вычислительный
процесс зацикливается (рис. 2).
При использовании градиентных методов помимо несходимости и зацикливания имеется еще одна проблема (рис. 3).
Если искать оптимум функции F(x) градиентным методом и выбрать стартовую точку в интервале [x
min
, x
0
], то поиск
приведет нас в вершину, обозначенную как max.
Рис. 2 Проблема зацикливания алгоритма оптимизации
найденная
вершина
истинная вершина
погрешность
начало
поиска