Исследование оптических и диффузионных явлений в биотканях при воздействии осмотически активных иммерсионных жидкостей. Башкатов А.Н - 51 стр.

UptoLike

Рубрика: 

ПРИЛОЖЕНИЕ 1
МАТЕМАТИЧЕСКИЕ МЕТОДЫ РЕШЕНИЯ ОБРАТНЫХ ЗАДАЧ
К задачам на поиск оптимума сводятся многие из проблем математики,
системного анализа, техники, экономики, медицины и статистики. Когда для изучения
какого-нибудь сложного явления строится математическая модель, к оптимизации
прибегают для того, чтобы определить такую структуру и такие параметры последней,
которые обеспечивали бы наилучшее согласование с реальностью.
Рассмотрим поиск оптимальных значений максимума или минимума функции
n
действительных переменных
(
12
, , ...,
n
)
f
xx x. С математической точки зрения не
играет существенной роли, рассматривать максимизацию или минимизацию функции,
поскольку максимизация функции
(
)
...,
n
12
, ,
f
xx
)
x эквивалентна минимизации
функции
(
12
, , ...,
n
f
xx x . Наиболее важным этапом в любой практической
оптимизационной задаче является моделирование рассматриваемой физической
ситуации с целью получения математической функции, которую необходимо
минимизировать, а также определения ограничений, если таковые существуют. Затем
следует выбрать подходящую процедуру для осуществления минимизации. Эта
процедура должна быть реализована на практике, что в большинстве реальных случаев
вынуждает использовать ЭВМ для выполнения большого объема вычислений.
Не случайно, что многие важные методы оптимизации были разработаны в
последние десятилетия, в период появления современных ЭВМ, обладающих
огромными вычислительными возможностями. Наряду с развитием аппаратных
средств, в последнее время широкое развитие получили многочисленные программные
пакеты (
MathCad, MATLAB и т.д.) с интегрированными в них, на уровне встроенных
функций, различными методами минимизации. Таким образом, бурное развитие
программных и аппаратных средств позволяет широко применять методы оптимизации
при решении самых разных научных задач, в том числе и при решении различных
проблем оптики биотканей и биомедицинской оптики.
Все многочисленные методы оптимизации можно, в первом приближении,
разбить на два больших класса: оптимизация без ограничений и оптимизация при
наличии ограничений. Под ограничениями в данном случае мы должны понимать
ограничения, накладываемые на значения переменных
x
1
, x
2
, …, x
n
. Каждый из этих
больших классов можно в свою очередь разделить на два подкласса: методы прямого
поиска и градиентные методы.
Методы прямого поиска являются методами, в которых используются только
значения функции. Примером таких методов служат метод Хука-Дживса, модификация
симплексного метода Нелдера-Мида (комплексный метод) и т.д. К градиентным
методам можно отнести такие широко известные методы как метод наискорейшего
спуска, метод Давидона-Флетчера-Пауэлла, метод Флетчера-Ривса, метод Левенберга-
Маркардта, метод сопряженных градиентов, модернизированный метод Ньютона
(квазиньютоновский метод) и т.д. Суть этих методов в том, что в отличие от методов
прямого поиска, для нахождения экстремума целевой функции используется не только
само значение функции, но и ее градиент. Основная идея этих методов в том, что
направление градиента является направлением наискорейшего возрастания функции.
Следовательно, противоположное направление является направлением наискорейшего
убывания функции. К достоинствам градиентных методов следует отнести их
51