Нелинейное программирование. Нурминский Е.А. - 22 стр.

UptoLike

Составители: 

Рубрика: 

и задана начальная точка .
Как следует из процедуры построения сопряженной системы
на начальном шаге нам нужен единственный вектор . Требование лине-
йной незаыисимости означает, в частности, что этот вектор не должен быть
нулевым. Для задачи оптимизации в качестве такого вектора можно выб-
рать градиент целевой функции в начальной точке:
Если этот вектор равен нулю, то — решение (31).
Поэтапная решение задачи минимизации (31) означает ( на первом шаге
) нахождение
Шаг легко вычисляется, но это не суть важно. Существенно при этом,
что градиент целевой функции в точке ортогонален и, следовательно,
линейно независим от ( и ).
Следовательно, вектор можно использовать для построения вто-
рого сопряженното направления , которое, с точностью до нормировки
будет иметь вид:
и условие сопряжения имеют вид
Умножив это условие на его можно представить его в виде
или
откуда
Критически важным является следуюший шаг. Знание второго сопряженн-
ого направления дает нам возможность минимизировать по подпрост-
ранству, натянутому на оба вектора . В силу сепарабельности в
системе координат, связаной с эта минимизация сводиться к раздельн-
ой минимизации вдоль ( что уже было проделано ) и ( что происходит
на этом шаге ). Таким образом
22
и задана начальная точка .                                                                                                                                                                    //0/
   Как следует из процедуры построения сопряженной системы                                                                                                                                             
                                                                                                                                                                                                      




на начальном шаге нам нужен единственный вектор  . Требование лине-
йной незаыисимости означает, в частности, что этот вектор не должен быть
нулевым. Для задачи оптимизации в качестве такого вектора можно выб-
рать градиент целевой функции в начальной точке:

                                                                                 
                                                                                           >  5
Если этот вектор равен нулю, то  — решение (31).
   Поэтапная решение задачи минимизации (31) означает ( на первом шаге
) нахождение
                                 D                                                                                                       ;   5
                                                                                                                                     
                                                                                                                                                 




                                                                                                                                                                              
Шаг
       легко вычисляется, но это не суть важно. Существенно при этом,
что градиент целевой функции в точке                             >O
                                         ортогонален и, следовательно,
                                                                                                                                                                        




                       (и
                                                             > 
                                                                                                         
линейно независим от                  ).
                                        




   Следовательно, вектор        можно использовать для построения вто-


                                                                     
рого сопряженното направления , которое, с точностью до нормировки
                                                                                                 




будет иметь вид:                                             




                                                                                                         >  *W                       




                                                                                             
и условие сопряжения имеют вид
                                                                                                            
                                                                                                                   %'
                                                         
                                                                                                                                               
Умножив это условие на                                       его можно представить его в виде
                             




                                                                                     <%  L >                    




                                                                                                                                                           >  "

                                               >     >   "     >  "   %
или
            >     >  " >  
откуда
                                            >   "12  >  "1L
                                                            
Критически важным является следуюший шаг. Знание второго сопряженн-
                                                                                 
                                                 
ого направления дает нам возможность минимизировать       по подпрост-
                                                                                             
                                                                              
ранству, натянутому на оба вектора     . В силу сепарабельности      в
                                                                                                                             




системе координат, связаной с         
                                 эта минимизация сводиться к раздельн-
                                                                                        




ой минимизации вдоль ( что уже было проделано ) и ( что происходит
                                                                                                                                                                           




                                  0;< D       0 ;< D     0
на этом шаге ). Таким образом
  D              
                                                                                                    
                                                                                                                                                                                                




                                                                                                                                                                                   




                                                                                                                 22