ВУЗ:
Составители:
Рубрика:
0 1 2 5 8
x
1
Рис. 1.31. Графическая иллюстрация решения двухпараметрической
однокритериальной задачи оптимизации
неравенство выполняется. Это значит, что выбранная точка находится в ОДР, которая находится «справа-
вверху» от кривой. На втором этапе вычисляем значения целевой функции в пределах ОДР: искомая
точка, определяющая оптимальные значения искомых параметров, находится на границе ОДР:
x
1опт
= 1,
x
2опт
= 12. Если
x
2
/
x
1
→
min, то
x
1опт
= 8,
x
2опт
= 2.
1.5.1. ЗАДАЧИ НЕЛИНЕЙНОГО ПРОГРАММИРОВАНИЯ
Методы решения задач нелинейного программирования классифицируются следующим образом.
1. Численные методы поиска экстремума функции одной переменной
.
Постановка задачи
: найти значение переменной
х
, при которой целевая функция
y
=
f
(
x
) имеет
минимум или максимум при условиях
( )
mjbxg
jj
,1,,)( =≥≤=
.
1.1. Классический метод.
Пусть
a
≤
x
≤
b
, функция
f
(
x
) непрерывна на этом отрезке и имеет на нём непрерывную
производную. Вычисляют значение производной
)(
xf
′
и определяют критические точки (точки отрезка
[
a
,
b
], в которых производная обращается в нуль или не существует). В окрестности каждой
критической точки исследуют знак производной и отбирают те из них, при переходе через которые
производная меняет знак с минуса на плюс (точки локального минимума) или с плюса на минус (точки
локального максимума). Затем вычисляют значения целевой функции в этих точках и на границах
отрезка [
a
,
b
]. Эти значения сравнивают между собой и определяют точку, в которой достигается
минимум (максимум) целевой функции. Эта точка является точкой глобального минимума (максимума)
функции
f
(
x
) на отрезке [
a
,
b
].
При решении реальных задач оптимизации данный метод применяется редко, так как зачастую
производную целевой функции определить сложно или невозможно.
1.2. Метод равномерного перебора.
Пусть дана функция
y
=
f
(
x
)
→
min (рис. 1.32).
Фиксируют величину шага
h
> 0. Вычисляют значения целевой функции в точках
x
1
=
a
и
x
2
=
x
1
+
h
–
f
(
x
1
) и
f
(
x
2
). Полученные значения сравнивают. Запоминают меньшее из этих двух значений. Далее
выбирается точка
x
3
=
x
2
+
h
и в ней вычисляется значение целевой функции
f
(
x
3
). Сравнивается
оставшееся на предыдущем шаге значение и значение
f
(
x
3
). Наименьшее из них опять запоминают. Так
поступают до тех пор, пока очередное значение
x
не превысит
b
. Последнее оставшееся значение
является приближённым значением глобального минимума.
Если целевая функция имеет узкую впадину (рис. 1.32), то можно её проскочить, и вместо точки
глобального минимума определить точку локального минимума (вместо
x
′
можно найти
x
′
′
). Эта
проблема частично снимается, если выбрать очень маленький шаг, но при этом потребуется много
времени (в том числе и машинного) для решения задачи.
1.3. Метод золотого сечения
прост, эффективен и широко применяется в практической
оптимизации.
Страницы
- « первая
- ‹ предыдущая
- …
- 34
- 35
- 36
- 37
- 38
- …
- следующая ›
- последняя »
