ВУЗ:
Составители:
оптимизируется ЦФ только на одном шаге, т.е. при принятых условиях.
Разбиение на шаги иногда происходит естественно, иногда приходится
придумывать искусственные приемы. Например, при оптимальном
планировании профилактических ремонтов агрегата процесс можно
разделить во времени, шагом м.б. сутки или недели; при оптимальном
распределении нагрузки между агрегатами для одного момента времени
процесс
разбивается в пространстве и шагу соответствует один агрегат.
Для каждого i-го шага процесса оптимизации определяются
параметры: х
i
– входные, у
i
– выходные, F
i
– ЦФ на i-том шаге, r
i
–
принимаемое на i-том шаге решение.
Значение ЦФ должно быть равно сумме значений ЦФ на каждом
шаге оптимизации. Это свойство называется аддитивностью ЦФ.
Оптимальное управление определяют на каждом шаге и его нужно
выбирать так, чтобы учесть последствия выбора на следующих шагах.
При этом выход i-го шага является входом следующего
шага.
Управление на последнем шаге нужно выбрать таким, чтобы ЦФ была
оптимальной. Т.е. процесс удобнее начать с конца, выдвинув
предположение, чем закончился предыдущий шаг. Это приводит к
понятию условно-оптимального управления – оптимального
управления, найденного в предположении, что предыдущий шаг
закончился так-то.
Руководствуясь этим принципом, процесс нахождения
оптимального управления начинают
с конца: вначале находится
условно-оптимальное управление для каждого возможного исхода
предпоследнего шага, затем – на предпоследнем для каждого
возможного исхода предыдущего (2-го с конца) шага и т.д., пока не
дойдем до первого шага. На первом шаге не надо выдвигать
предположений о состоянии системы: мы знаем, с чего начался процесс,
и можем определить безусловно оптимальное управление для первого
шага.
Математическое описание анализа многошагового процесса
оптимизации основано на использовании рекуррентных соотношений:
∑
−
−−−
+
ψ
=
1
111
),(opt),,(),(
i
iiiriiiiiii
rxFyrxrxF , (10.1)
где 0)();,(
001
=
ϕ=
=
−
xrrxxy
iiiii
. (10.2)
Уравнение (10.1) отображает следующее: для каждого
i-го шага
оптимальное значение ЦФ процесса оптимизации есть сумма ЦФ на
i-
том шаге плюс оптимальное значение ЦФ на шагах на шагах от 1 до (
i-
1). Уравнение (10.1) выражает принцип относительности Беллмана:
каково бы ни было состояние исследуемой системы в результате какого-
то числа шагов, необходимо выбрать управление на текущем шаге так,
чтобы оно в совокупности с оптимальным управлением на всех
последующих шагах приводило к максимальному выигрышу на всех
оставшихся шагах, включая данный.
Градиентные методы.
В прикладных электроэнергетических задачах ЦФ не всегда
удовлетворяет требованиям выпуклости, т.е. возможно несколько
экстремумов. Она м.б. аналитически сложной. В этом случае широкое
применение получили численные итерационные методы оптимизации –
градиентные во множестве модификаций.
Простой градиентный метод
: значения независимых
переменных меняют на следующем шаге таким образом, чтобы
изменение ЦФ происходило в сторону, противоположную градиенту
(min!).
Градиент – это вектор, направленный перпендикулярно касательной
к линии равного уровня в сторону наибольшего увеличения ЦФ,
определяемый как геометрическая сумма частных производных ЦФ по
всем независимым переменным.
Следовательно, итерационная процедура градиентного метода
описывается так
:
)(
1 iii
XFXX
∇
⋅
α
−
=
+
, (10.3)
где
n
i
x
F
x
F
x
F
XFXF
∂
∂
∂
∂
∂
∂
==∇
...
)(grad)(
2
1
(10.4)
оптимизируется ЦФ только на одном шаге, т.е. при принятых условиях. Уравнение (10.1) отображает следующее: для каждого i-го шага Разбиение на шаги иногда происходит естественно, иногда приходится оптимальное значение ЦФ процесса оптимизации есть сумма ЦФ на i- придумывать искусственные приемы. Например, при оптимальном том шаге плюс оптимальное значение ЦФ на шагах на шагах от 1 до (i- планировании профилактических ремонтов агрегата процесс можно 1). Уравнение (10.1) выражает принцип относительности Беллмана: разделить во времени, шагом м.б. сутки или недели; при оптимальном каково бы ни было состояние исследуемой системы в результате какого- распределении нагрузки между агрегатами для одного момента времени то числа шагов, необходимо выбрать управление на текущем шаге так, процесс разбивается в пространстве и шагу соответствует один агрегат. чтобы оно в совокупности с оптимальным управлением на всех Для каждого i-го шага процесса оптимизации определяются последующих шагах приводило к максимальному выигрышу на всех параметры: хi– входные, уi – выходные, Fi– ЦФ на i-том шаге, ri – оставшихся шагах, включая данный. принимаемое на i-том шаге решение. Градиентные методы. Значение ЦФ должно быть равно сумме значений ЦФ на каждом шаге оптимизации. Это свойство называется аддитивностью ЦФ. В прикладных электроэнергетических задачах ЦФ не всегда Оптимальное управление определяют на каждом шаге и его нужно удовлетворяет требованиям выпуклости, т.е. возможно несколько выбирать так, чтобы учесть последствия выбора на следующих шагах. экстремумов. Она м.б. аналитически сложной. В этом случае широкое При этом выход i-го шага является входом следующего шага. применение получили численные итерационные методы оптимизации – Управление на последнем шаге нужно выбрать таким, чтобы ЦФ была градиентные во множестве модификаций. оптимальной. Т.е. процесс удобнее начать с конца, выдвинув Простой градиентный метод: значения независимых предположение, чем закончился предыдущий шаг. Это приводит к переменных меняют на следующем шаге таким образом, чтобы понятию условно-оптимального управления – оптимального изменение ЦФ происходило в сторону, противоположную градиенту управления, найденного в предположении, что предыдущий шаг (min!). закончился так-то. Градиент – это вектор, направленный перпендикулярно касательной Руководствуясь этим принципом, процесс нахождения к линии равного уровня в сторону наибольшего увеличения ЦФ, оптимального управления начинают с конца: вначале находится определяемый как геометрическая сумма частных производных ЦФ по условно-оптимальное управление для каждого возможного исхода всем независимым переменным. предпоследнего шага, затем – на предпоследнем для каждого Следовательно, итерационная процедура градиентного метода возможного исхода предыдущего (2-го с конца) шага и т.д., пока не описывается так: дойдем до первого шага. На первом шаге не надо выдвигать X i + 1 = X i − α ⋅ ∇F ( X i ) , (10.3) предположений о состоянии системы: мы знаем, с чего начался процесс, ∂F и можем определить безусловно оптимальное управление для первого ∂x1 шага. ∂F Математическое описание анализа многошагового процесса где ∇F ( X i ) = gradF ( X ) = ∂x 2 (10.4) оптимизации основано на использовании рекуррентных соотношений: ... Fi ( xi , ri ) = ψ i ( xi , ri , yi ) + opt r ∑ Fi −1 ( xi −1 , ri −1 ) , (10.1) ∂F i −1 ∂x n где yi = xi −1 = ϕi ( xi , ri ); r0 ( x0 ) = 0 . (10.2)