Применение ЭВМ в электроэнергетике: Текст лекций. Медведева С.Н. - 29 стр.

UptoLike

Составители: 

Рис. Траектории поиска экстремума а) без ограничений;
б) при наличии ограничений
Окончанием поиска оптимального значения может служить
возрастание ЦФ в некоторой точке поиска минимума или достижение
заданной точности ЦФ
i
-ЦФ
i-1
ε .
Модификации метода отличаются выбором шага
α. Может быть
постоянный шаг, может дополнительно на каждом шаге оптимизации
вычисляться шаг из условий обеспечения максимального уменьшения
ЦФ в заданном направлении (метод с вычислением производной, метод
деления отрезка пополам, метод «золотого сечения» и т.п.). Используют
часто совокупность методов выбора шага
α: на участках вдали от
оптимума шаг постоянный и большой, вблизи предусматривается
возможность его уменьшения.
Оптимизация выполняется только по независимым переменным.
Преимущество
метода в точности нахождения оптимума ЦФ.
Недостатки
: сложность решения при большом числе переменных,
возможность попасть на локальный экстремум, чувствительность к
масштабным преобразованиям.
Метод наискорейшего спуска
: в начальной точке определяем
градиент и движемся против этого направления (min!) до тех пор, пока
по этой линии не достигнем минимума ЦФ. Затем пересчитывается
градиент и направление меняется. И т.д. Шаг в одном направлении не
постоянен, не выбирается.
Метод покоординатного спуска
: поиск решения производится
поочередно по каждой переменной, т.е. итерационный процесс
происходит по одной переменной при неизменных других до тех пор,
пока производная ЦФ по выбранной переменной не будет равна 0 или
близка к нему. Затем выбирается другая переменная и т.д.
Преимущество
: не надо решать матричных уравнений (или систему
уравнений). Недостаток:
узкая область применения -
немногоэкстремальные задачи, т.к. обеспечивается нахождение
локальных экстремумов, а не глобального.
Релаксационный метод
: метод релаксации (ослабления)
характеризуется тем, что на каждом шаге или на нескольких шагах
итерации производятся приращения той переменной, изменение
которой дает наибольший результат, т.е. наибольшее уменьшение(min!)
ЦФ (модификация покоординатного спуска).
Метод штрафных функций
: один из самых распространенных
для оптимизационных нелинейных задач с наличием ограничений. Суть
его: свести к задаче нелинейного программирования без ограничений.
Задача: найти минимальное значение ЦФ
F(X), где Х={x
1
,x
2
,..,x
n
}
при условиях
nixmjbX
ijj
,..,2,1,0,..,2,1,)(
=
=
ϕ
. Находится
минимальное значение не
F(X), а
Z(X)=F(X)+H(X),
где
H(X) – функция, определенная системой ограничений и называемая
штрафной. Ее можно строить различными способами, чаще всего
=
ϕα=
m
j
jj
XXH
1
)()(,
где
<ϕα
ϕ
=α
0)(если,
0)(если,0
)(
Xb
Xb
X
jjj
jj
j
,
а
j
α
<0 – некоторые постоянные числа, весовые коэффициенты.
Точность решения зависит от выбора α. Чем больше α, тем выше
точность, но при больших значениях α ЦФ начинает носить овражный
характер и процесс нахождения минимума замедляется.
Используя штрафную функцию, последовательно переходят от
одной точки к другой до тех пор, пока не получат приемлемое решение.
Формула итерационного процесса:
ϕ
α+
+=
=
+
m
j
i
i
j
j
k
i
i
k
i
k
X
X
X
XF
xx
1
1
)(
)(
;0max .
Из последнего соотношения следует, что если предыдущая точка
находится в области допустимых решений исходной задачи, то второе
слагаемое в квадратных скобках равно нулю и переход к последующей
                                                                        немногоэкстремальные задачи, т.к. обеспечивается нахождение
                                                                        локальных экстремумов, а не глобального.
                                                                             Релаксационный метод: метод релаксации (ослабления)
                                                                        характеризуется тем, что на каждом шаге или на нескольких шагах
                                                                        итерации производятся приращения той переменной, изменение
      Рис. Траектории поиска экстремума а) без ограничений;             которой дает наибольший результат, т.е. наибольшее уменьшение(min!)
                    б) при наличии ограничений                          ЦФ (модификация покоординатного спуска).
                                                                             М е т о д ш т р а ф н ы х ф у н к ц и й : один из самых распространенных
    Окончанием поиска оптимального значения может служить
                                                                        для оптимизационных нелинейных задач с наличием ограничений. Суть
возрастание ЦФ в некоторой точке поиска минимума или достижение
                                                                        его: свести к задаче нелинейного программирования без ограничений.
заданной точности ЦФi-ЦФi-1≤ ε .                                             Задача: найти минимальное значение ЦФ F(X), где Х={x1,x2,..,xn}
    Модификации метода отличаются выбором шага α. Может быть            при условиях ϕ j ( X ) ≤ b j , j = 1,2.., m, xi ≥ 0, i = 1,2,.., n . Находится
постоянный шаг, может дополнительно на каждом шаге оптимизации
вычисляться шаг из условий обеспечения максимального уменьшения         минимальное значение не F(X), а
ЦФ в заданном направлении (метод с вычислением производной, метод                                 Z(X)=F(X)+H(X),
деления отрезка пополам, метод «золотого сечения» и т.п.). Используют   где H(X) – функция, определенная системой ограничений и называемая
часто совокупность методов выбора шага α: на участках вдали от          штрафной. Ее можно строить различными способами, чаще всего
                                                                                                             m
оптимума шаг постоянный и большой, вблизи предусматривается
возможность его уменьшения.
                                                                                                   H(X ) =   ∑α j ⋅ ϕ j (X ) ,
                                                                                                             j =1
    Оптимизация выполняется только по независимым переменным.
    Преимущество метода в точности нахождения оптимума ЦФ.                                               ⎧0, если b j − ϕ j ( X ) ≥ 0
                                                                        где                   α j (X ) = ⎨                               ,
Недостатки: сложность решения при большом числе переменных,                                              ⎩α j , если b j − ϕ j ( X ) < 0
возможность попасть на локальный экстремум, чувствительность к          а α j <0 – некоторые постоянные числа, весовые коэффициенты.
масштабным преобразованиям.
    Метод наискорейшего спуска: в начальной точке определяем            Точность решения зависит от выбора α. Чем больше α, тем выше
градиент и движемся против этого направления (min!) до тех пор, пока    точность, но при больших значениях α ЦФ начинает носить овражный
по этой линии не достигнем минимума ЦФ. Затем пересчитывается           характер и процесс нахождения минимума замедляется.
градиент и направление меняется. И т.д. Шаг в одном направлении не          Используя штрафную функцию, последовательно переходят от
постоянен, не выбирается.                                               одной точки к другой до тех пор, пока не получат приемлемое решение.
    Метод покоординатного спуска: поиск решения производится            Формула итерационного процесса:
поочередно по каждой переменной, т.е. итерационный процесс                               ⎧          ⎡         i      m     ∂ϕ j ( X ) ⎤ ⎫⎪
                                                                                                                                     i
                                                                              i +1       ⎪      i     ∂F ( X    )
происходит по одной переменной при неизменных других до тех пор,            xk     = max ⎨0; x k + ⎢              + ∑α j                ⎥⎬ .
пока производная ЦФ по выбранной переменной не будет равна 0 или                         ⎪          ⎢   ∂ X k       j =1       ∂ X i    ⎥⎪
                                                                                         ⎩          ⎣                                   ⎦⎭
близка к нему. Затем выбирается другая переменная и т.д.
    Преимущество: не надо решать матричных уравнений (или систему           Из последнего соотношения следует, что если предыдущая точка
уравнений).     Недостаток:     узкая    область     применения     -   находится в области допустимых решений исходной задачи, то второе
                                                                        слагаемое в квадратных скобках равно нулю и переход к последующей