Составители:
Рисунок 9.1
В данном методе, который можно назвать методом перебора, основная трудность состоит в выборе п и оцен-
ке погрешности. Можно, например, провести оптимизацию с разными шагами и исследовать сходимость
такого итерационного процесса. Но это трудоемкий путь.
Более экономичным способом уточнения оптимального параметра является использование свойства
унимодальности целевой функции, которое позволяет построить процесс сужения интервала
неопределенности.
Пусть, как и ранее, среди всех значений унимодальной функции y = f(x), вычисленных в узлах х
k
(k = 0, 1,...,п),
наименьшим оказалось y
i
. Это означает, что оптимальное значение проектного параметра находится на
отрезке [x
i-1
, x
i+1
] (Рисунок 9.1), т. е. интервал неопределенности сузился до длины двух шагов. Если размер
интервала недостаточен для удовлетворения заданной погрешности, т. е. x
i+1
- x
i-1
> ε, то его снова можно
уменьшить путем нового разбиения. Получится интервал, равный двум длинам нового шага разбиения, и т. д.
Процесс оптимизации продолжается до достижения заданного размера интервала неопределенности. В
описанном методе общего поиска можно с помощью некоторой изобретательности, а также разумного выбора
шага разбиения добиться эффективного поиска.
Например, пусть начальная длина интервала неопределенности равна b - a = 1. Нужно добиться его умень-
шения в 100 раз. Этого легко достичь разбиением интервала на 200 частей. Вычислив значения целевой
функции f(x
k
) (k = 0, 1, ..., 200), найдем ее минимальное значение f(x
i
). Тогда искомым интервалом
неопределенности будет отрезок [х
i-1
, x
i+1
].
Однако можно поступить и иначе. Сначала разобьем отрезок [а, b] на 20 частей и найдем интервал неопреде-
ленности длиной 0.1, при этом мы вычислим значения целевой функции в точках х
k
= a + 0.05k (k=0,1,…,200).
Теперь отрезок [x
i-1
, x
i+l
] снова разобьём на 20 частей; получим искомый интервал длиной 0.01, причем
значения целевой функции вычисляем в точках х
k
= x
i-1
+ 0.05k (k = 0, 1, …, 19) (в точках x
i-1
и x
i+1
значения
f(x) уже найдены). Таким образом, во втором случае в процессе оптимизации произведено 40 вычислений
значений целевой функции против 201 в первом случае, т. е. способ разбиения позволяет получить
существенную экономию вычислений.
Существует ряд специальных методов поиска оптимальных решений с разными способами выбора узлов и
сужения интервала неопределенности: метод деления отрезка пополам, метод золотого сечения и др.
Рассмотрим один из них.
2.3 Метод золотого сечения. При построении процесса оптимизации стараются сократить объем
вычислений и время поиска. Этого достигают обычно путем сокращения количества вычислений (или
измерений — при проведении эксперимента) значений целевой функции
f(x). Одним из наиболее
эффективных методов, в которых при ограниченном количестве вычислений
f(x) достигается наилучшая
точность, является
метод золотого сечения. Он состоит в построении последовательности отрезков [а
0
, b
0
],
[a
1
, b
1
], ..., стягивающихся к точке минимума функции f(x). На каждом шаге, за исключением первого,
вычисление значения функции
f(x) проводится лишь один раз. Эта точка, называемая золотым сечением,
выбирается специальным образом.
Рисунок 9.2
Страницы
- « первая
- ‹ предыдущая
- …
- 130
- 131
- 132
- 133
- 134
- …
- следующая ›
- последняя »
