443

Методы нахождения условного и безусловного экстремума

Курсовая

Математика и математический анализ

Предварительно необходимо найти стационарную точку Х и определить характер экстремума из необходимых и достаточных условий. Найти минимум функции методами прямого поиска и градиентными методоми сопряжённых направлений Пауэлла.

Русский

2013-01-06

782.5 KB

197 чел.

МИНИСТЕРСТВО ОБРАЗОВАНИЯ РОССИЙСКОЙ ФЕДЕРАЦИИ

ВЯТСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ

Факультет автоматики и вычислительной техники

Кафедра автоматики и телемеханики

Решение задач оптимизации

Пояснительная записка

Курсовая работа по дисциплине

«Методы оптимизации»

ТПЖА 220201. 129 ПЗ

   Разработал студент группы У-21:         ____________________   /Сабуров С.В./

                                  (подпись)

       

           

   Руководитель работы:                      _____________________   / Микрюкова В.И./

(подпись)

Киров 2012

                             ВЯТСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕСИТЕТ

                        ФАКУЛЬТЕТ АВТОМАТИКИ И ТЕЛЕМЕХАНИКИ

Кафедра Автоматики и телемеханики

ЗАДАНИЕ НА КУРСОВУЮ РАБОТУ

по дисциплине «Методы оптимизации»

ТЕМА: “Решение задач оптимизации”

Студент ______________________________________________________

Группа     ________

  1.  Исходные данные: Функция двух переменных:

.

 х(0)=[-9,-10]T-начальная точка.

  1.  Цель задания: Найти минимум функции методами прямого поиска и градиентными методами.
  •  методом равномерного симплекса;
  •  методом Хука-Дживса;
  •  методом сопряжённых направлений Пауэлла;
  •  методом Коши;
  •  методом Ньютона;
  •  методом сопряжённых градиентов;
  •  квазиньютоновским методом;
  •  методом штрафных функций (получив ограничения на решение).

Предварительно необходимо найти стационарную точку Х и определить характер экстремума из необходимых и достаточных условий.

 Окончание поиска:

  1.  в методе равномерного симплекса после завершения одного оборота симплекса в области расположения стационарной точки.
  2.  в методе Хука-Дживса после первого сокращения шага поиска;
  3.  в методе Коши после выполнения четырёх итераций;

В остальных методах экстремум определяется точно и за конечное число шагов.

Руководитель работы  _______________       / Микрюкова В.И. /   __.__.2012 г.

             (подпись)          (Ф.И.О. преподавателя)

Задание принял      ___________________  /_________________/  __.__.2012 г.

              (подпись)                 (Ф.И.О. студента)

  Реферат

Сабуров С.В. Методы нахождения условного и безусловного экстремума: ТПЖА 220201.129 ПЗ: Курс. работа / ВятГУ, каф. АТ; рук. В. И. Микрюкова.– Киров, 2012. ПЗ 29 с., 8 рис., 1 таблица., 4 источника

ФУНКЦИЯ НЕСКОЛЬКИХ ПЕРЕМЕННЫХ, БЕЗУСЛОВНАЯ ОПТИМИЗАЦИЯ, УСЛОВНАЯ ОПТИМИЗАЦИЯ, МЕТОДЫ ПРЯМОГО ПОИСКА, ГРАДИЕНТНЫЕ МЕТОДЫ,УСЛОВНЫЙ ЭКСТРЕМУМ.

Объект исследования – изучение методов решения задач оптимизации.

Цель работы – отработка навыков решения задач безусловной оптимизации функции нескольких переменных методами прямого поиска и отработка навыков решения задач безусловной оптимизации градиентными методами.

Решена задача безусловной оптимизации функции нескольких переменных методами прямого поиска и градиентными методами.

Содержание

  1.  Задание на курсовую работу ………………………………………….
  2.  Содержание…………………………………………………………….
  3.  Введение………………………………………………………………..
  4.  Основная часть…………………………………………………………
    1.   Методы безусловной оптимизации
      1.  Методы прямого поиска

         4.1.1.1 Метод поиска по симплексу………………………...

         4.1.1.2  Метод Хука-Дживса………………………………...

         4.1.1.3 Метод сопряжённых направлений Пауэлла………..

         4.1.2 Градиентные методы          

4.1.2.1 Метод Коши…………………………………………

          4.1.2.2 Метод Ньютона……………………………………..

          4.1.2.3 Метод сопряженных градиентов…………………..

          4.1.2.4 Квазиньютоновский метод…………………………

         4.1.3 Методы Условного экстремума          

               4.1.3.1 Метод штрафных функций…………………………

4.2 Выводы……………………………………………………………..

  1.  Заключение………………………………………………………… 37     
  2.  Библиографический список литературы………………………     38

2

4

5

6

7

13

17

21

24

26

29

31

36

 

 

 

 

Введение

С развитием производственных отношений в стране, перед наукой встаёт серьёзная и очень важная проблема оптимизации рыночных отношений, внедрения компьютерной обработки данных в экономику. Значительное число нерешённых задач стоит перед человечеством накануне второго тысячелетия. Во времена, когда борьба уже идёт не за минуты и секунды, а за  микросекунды, не за метры и сантиметры, а за миллиметры и доли миллиметров, когда возможность учесть, а главное исследовать влияние косвенных факторов на жизненно важные области деятельности человека, становится не второстепенной, оптимизационные методы минимизации и максимизации приобретают всё большую ценность и востребованность.

Развитие численных линейных методов решения задач линейного программирования очень важно в нынешнее время, поскольку сложность решаемых задач взваливает всю работу на современные ЭВМ, работающие с « единичками» и « ноликами», и « неподозревающих» о существовании производных, первообразных, интегралов и пр. И нахождение оптимального решения сводится к представлению его в виде численных методов.

Применение оптимизационных задач имеет особый успех при проектировании и анализе больших технических систем. Кроме того, интенсивное развитие средств вычислительной техники стимулирует ускорение темпов внедрения теоретических разработок в инженерную практику. В настоящее время для инженера знание методов оптимизации столь же необходимо, как знание основ математического анализа, физики, радиоэлектроники и других дисциплин.

Нахождение стационарной точки

Целевая функция задана следующим уравнением: , где a=9, b=2.

Тогда уравнение примет вид:

Производные по и :

Приравняв полученные выражения к нулю, получим систему уравнений:

Решение системы уравнений даёт результат:

Таким образом, экстремум целевой функции является точка с координатами , значение целевой функции, в которой: .

Для определения характера стационарной точки составим Гессиан функцию  (определитель, составленный из вторых производных исходной целевой функции).

Так как определитель матрицы больше нуля, то стационарная точка является точкой минимума.

Задача определения экстремума свелась к нахождению минимума целевой функции f(x).

 

Методы прямого поиска.

   Многомерные методы оптимизации, основанные на вычислении целевой функции f(x), можно разделить на эвристические и теоретические. В первых реализуются процедуры поиска с помощью интуитивных геометрических представлений. Данные методы обеспечивают получение частных эмпирических результатов. Теоретические методы основаны на фундаментальных математических теоремах и обладают такими операционными свойствами как сходимость.

Метод поиска по симплексу

  Суть метода заключается в исследовании целевой функции в вершинах некого «образца», в двумерном случае треугольника, построенного в пространстве переменных вокруг «базовой» точки. Вершина, давшая наибольшее значение целевой функции отображается относительно двух других вершин и таким образом становится новой базовой точкой, вокруг которой строится новый образец и снова выполняется поиск. В рассматриваемом методе таким образцом является регулярный симплекс. В случае двух переменных симплексом является равносторонний треугольник, в трёхмерном пространстве – тетраэдр.

  Работа алгоритма начинается с построения регулярного симплекса в пространстве независимых переменных и оценивания значений целевых функции в каждой точке. Затем определяется вершина с максимальным значением целевой функции и проектируется через центр тяжести оставшихся вершин в новую точку. Процедура продолжается до тех пор, пока не будет накрыта точка минимума. Поиск заканчивается тогда, когда размеры симплекса или разность значений целевой функции становятся достаточно малыми.

 Некоторые замечания:

  1.  Если вершина с максимальным значением целевой функции построена на предыдущем шаге, то отбрасывается вершина со следующим по величине значением целевой функции.
  2.  Если вокруг одной из вершин начинается циклическое движение, то необходимо уменьшить размеры симплекса.

При заданной начальной точке х(0) и масштабном множителе , координаты остальных N вершин симплекса в N – мерном пространстве вычисляются по формуле:

 xj(0) + 1, если i = j;

x(i) =        xj(0) + 2, если i j.

Приращения 1   и  2  определяются

по формулам:

;

;

Величина α выбирается исследователем, исходя из характеристики решаемой задачи.

Вычисление центра тяжести:

Если х(i) – точка, подлежащая отражению, то координаты центра тяжести определяется по формуле:

;

Координаты новой вершины удовлетворяют уравнению

xнов( j ) = x( j ) + λ•(xcx( j ));

Для того, чтобы  симплекс обладал свойством регулярности, отображение должно быть симметричным, т.е. λ = 2.

xнов( j ) = 2•xcx( j );

Если некоторая вершина симплекса не исключается на протяжении нескольких итераций, то необходимо уменьшить размер симплекса и построить новый симплекс, выбрав в качестве базовой точку с минимальным значением целевой функции.

Алгоритм метода:

Шаг 1. Задать:     1. Начальную точку х(0)   ;

                  2. Масштабный множитель α;

                              3. Приращения δ1 и δ2 ;

                             4.Условие окончания поиска. Перейти к шагу 2.

Шаг 2. Вычислить координаты вершин х(1) и  х(2)   симплекса. Перейти к шагу 3.

Шаг 3. Определить значения целевой функции в вершинах симплекса. Перейти к шагу 4.

Шаг 4. Вершина, которой соответствует наибольшее значение целевой функции , построена на предыдущей итерации?

                            Да: отображается вершина, которой соответствует следующее по величине значение целевой функции

                            Нет: отображается точка с наибольшим значением целевой функции относительно двух других вершин симплекса. Перейти к шагу 5.

Шаг 5. Проверка на условие окончания.

                            Да: закончить поиск; результат- точка с наименьшим значением целевой функции;

                            Нет: перейти к шагу 3.

Нахождение минимума целевой функции симплекс-методом.

   Задание:

Найти минимум функции .

   Начальные данные :

- начальный масштабный множитель;

- начальная точка;

Минимизируем целевую функцию до первого уменьшения размера симплекса.

   Решение:

,

,

   1.

               ; заменяем

;

;

;

;

   2.

;

;

; заменяем

;

;

   3.

;

; заменяем

 ;

;

;

   4.

; заменяем

;

;

;

;

   5.

; заменяем

;

;

;

;

   6.

; заменяем

;

;

;

;

   7.

;

; заменяем

;

;

;

   8.

;

;

; заменяем

;

;

  

 9.

 ;

;

; заменяем

;

;

   10.

;

; заменяем

;

;

;

   11.

; ;

; ; заменяем

; ;

;

;

 12.

;

;

; заменяем

;

;

  

 13.

;

; заменяем

;

;

;

14.

; ;

; ; заменяем

; ;

;

;

15.

; ; заменяем

;  ;

;  

;

;

16.

;  ;

;  

;  

17.

;   заменяем

;  

 

18.

;  

  заменяем, т.к. >

 

18.

;  

 

 

Таким образом, происходит движение вокруг точки . Следовательно, при данном  точность максимальна в данной точке. Симплекс накрыл точку минимума. Далее следует уменьшить масштабный множитель   (например, в 2 раза) и построить новый исходный симплекс, взяв в качестве исходной точку

Полученное решение   не является точным, поэтому имело бы смысл продолжить вычисления.

Графическое приложение к Симплекс-методу.

Метод поиска Хука - Дживса

Метод относится к категории эвристических методов оптимизации.  Процедура Хука - Дживса представляет собой комбинацию “исследующего” поиска с циклическим изменением переменных и ускоряющего поиска по найденному образцу. Исследующий поиск ориентирован на выявление характера локального поведения целевой функции и определение направления вдоль “оврагов”. Полученная в результате исследующего поиска информация используется затем в процессе поиска по образцу при движении по “оврагам”.

Исследующий поиск

Для проведения исследующего поиска необходимо задать величину шага, которая может быть различна для разных координатных направлений и изменяться в процессе поиска. Поиск начинается в некоторой исходной точке. Делается пробный шаг вдоль одного из координатных направлений. Если значение целевой функции в пробной точке меньше, чем в исходной, то шаг считается удачным. В противном случае возвращаются в исходную точку и делают шаг в противоположном направлении. После перебора всех N координат исследующий поиск заканчивается. Полученную в результате исследующего поиска точку называют базовой.

Поиск по образцу

Поиск по образцу заключается в реализации единственного шага из полученной базовой точки вдоль прямой, соединяющей эту точку с предыдущей базовой точкой. Новая точка определяется по формуле:

xр(к + 1) = x(к) + [x(к) - x(к - 1)] ;

Как только движение по образцу не приводит к уменьшению целевой функции, точка xр(к + 1)  фиксируется в качестве временной базовой точки и выполняется исследующий поиск. При улучшении значения целевой функции эта точка рассматривается как новая базовая точка. Если же исследующий поиск не дал результата, необходимо вернуться в предыдущую точку и провести исследующий поиск.

Поиск завершается, когда величина шага приращения становится достаточно малой.

 Алгоритм метода:

Шаг 1. Задать:

  •  начальную точку х(0);
  •  приращение , i = 1,2,...,N;
  •  коэффициент уменьшения шага > 1;
  •  условие окончания поиска.

Шаг 2. Произвести исследующий поиск.

Шаг 3. Был ли исследующий поиск удачным (найдена ли точка с меньшим значением целевой функции)?

Да: перейти к шагу 5;

Нет: продолжить.

Шаг 4. Проверка на окончание поиска.

Да: прекратить поиск;

Нет: уменьшить приращение по формуле

 , i = 1,2,...,N.

Перейти к шагу 2.

Шаг 5. Провести поиск по образцу (формула (4)).

Шаг 6. Провести исследующий поиск, используя  в качестве базовой точки; пусть х(k+1) полученная в результате точка.

Шаг 7. Выполняется ли  f()<f(k))?

 Да: положить х(k1) = х(k);  х(k) = х(k+1); перейти к шагу 5;

 Нет: перейти к шагу 4.

 

Задача.

Минимизировать  методом поиска Хука-Дживса.

Условие окончание поиска: момент второго сокращения шага поиска.

Решение.

Зададим следующие величины (шаг 1):

 х(0)  – начальная точка = [–9,–10]Т.

   – векторная величина приращения = 1;

   – коэффициент уменьшения шага  = 2;

Точке х(0) соответствует значение функции  f(х(0)) = 602.

Исследующий поиск (шаг 2). Фиксируем значение  , даем приращение переменной .

 

= –9;

= –9+1= – 8;

f(–8,–10) = 561 < f(х(0))

х(1) = [–8,–10]T.

Значение целевой функции уменьшилось, успех. Следовательно, необходимо зафиксировать = –8 и дать приращение переменной  : = – 8;

= –10+1= –9;

f( –8, –9) =  522< 561.

Успех. Таким образом, в результате исследующего поиска найдена точка

 х(1) = [–8,–9]Т;

 f(х(1)) = 522.

Шаг 3. Исследующий поиск дал положительный результат, проводим поиск по образцу (шаг 5):

= х(1) + (х(1)х(0)) = [–7,–8]Т.

 f() = 448 < f(х(1)).

Переходим к шагам 6 и 7, произведя исследующий поиск вокруг точки , который оказывается удачным при положительных приращениях  и .

В результате получаем точку

 х(2) = [–6,–7] Т;

 f(х(2)) = 380 < f(х(1)).

Поиск по образцу успешен, и х(2) является новой базовой точкой при следующем проведении поиска по образцу.

Итерации продолжаются до момента второго сокращения шага поиска.

Значение всех последующих значений x, а также значение целевой функции в данной точке. Столбец примечание поясняет, как определяется данная точка, то есть либо поиск по образцу, либо исследующий поиск.

Таблица 1- Сводный результат поиска и исследовающего поиска по методу Хука-Дживса

x[x1;x2]

f(x1,x2)

Примечание

[-9;-10]

602

Начальное значение

[-8;-9]

522

исследующий поиск

[-7;-8]

448

поиск по образцу

[-6;-7]

380

исследующий поиск

[-4;-5]

262

поиск по образцу

[-3;-4]

212

исследующий поиск

[0;-1]

98

поиск по образцу

[1;0]

72

исследующий поиск

[4;3]

30

поиск по образцу

[5;4]

28

исследующий поиск

После этой точки нужно уменьшить приращение, но и после выполнения этой операции  исследующий поиск не приведет к успеху. Проведя проверку на окончание поиска мы видим что условие выполняется. В результате получена точка: [5;4]
Вывод:  по-прежнему необходимо достаточно большое количество итераций для достижения точки оптимума целевой функции.

Вывод:  Как и в предыдущем методе, необходимо большое количество итераций для достижения точки оптимума целевой функции. Так же метод обладает низкой точностью.

Графическое приложение к методу Хука-Дживса:

Метод сопряженных направлений Пауэлла

Метод относится к категории теоретических методов оптимизации.  Метод ориентирован на решение задач с квадратичными целевыми функциями. Основная идея алгоритма заключается в том, что если квадратичная функция N переменных приведена к сумме квадратов, то ее оптимум может быть найден  в результате реализации N одномерных поисков по преобразованным координатным (сопряженным) направлениям. Сопряженные направления определяются алгоритмически. Для нашего двумерного случая реализация метода требует три одномерных поиска. Для нахождения экстремума квадратичной функции N переменных необходимо выполнить N2 одномерных поисков.

Алгоритм метода:

Шаг 1. задать исходные точки х(1), х(2) и направление d. В частности, направление d может совпадать с направлением координатной оси;

Шаг 2. произвести одномерный поиск из точки х(1) в направлении d и получить точку y(1), являющуюся точкой экстремума на заданном направлении;

Шаг 3. произвести поиск из точки х(2) в направлении d и получить точку y(2);

Шаг 4. вычислить направление (y(2)y(1));

Шаг 5. провести одномерный поиск из точки у(1) (либо у(2)) в направлении (y(2)y(1)) с выходом в точку х*.

Решение:

Целевая функция:

Начальная точка:

Значение целевой функции в этой точке:

Шаг 1. Зададим исходные точки S(1) и S(2):

S(1) = [1;0]       S(2) = [0;1]

Шаг 2. Найдем значение , при [Х(0)+2S(2)]. Произвольная точка на луче из точки Х(0) в направлении S(2) определяется как

Х = Х(0) + S(2) = [-9;-10] + [0;1]

откуда       X1 = -9         X2 = - 10

Подставляя эти значения  в целевую функцию, получаем

 (Х) =

Дифференцируем это выражение по  и приравниваем нулю:

’(X) = 2 - 41

2 - 41 = 0

Отсюда находим :

= 20,5

X(1) = [-9;-10] + 20,5[0;1] = [-9;10,5]

[X(1)] = 181,75

 

Аналогично найдем значение , при [Х(1)+S(1)].

Х = Х(1) + S(1) = [-9;10,5] + [1;0]

откуда       X1 =  -9         X2 =10,5

Подставляя эти значения  в целевую функцию, получаем

 (Х) =

Дифференцируем это выражение по  и приравниваем нулю:

’(X) = 2 - 21,5

2 - 21,5 = 0

Отсюда находим :

= 10,75

X(2) = [-9;10,5] + 10,75[1;0] = [1,75;10,5]

[X(2)] = 66,188

Также найдем значение , при [Х(2)+2S(2)].

Х = Х(2) + S(2) = [1,75;10,5] + [0;1]

откуда       X1 = 1,75         X2 = 10,5 +

Подставляя эти значения  в целевую функцию, получаем

 (Х) =

Дифференцируем это выражение по  и приравниваем нулю:

’(X) = 2+7.25

7.25 + 2 = 0

Отсюда находим :

= -3,625

X(3) = [1,75;10,5] -3,625[0;1] = [1,75;6,875]

[X(3)] = 40,359

Шаг 3. Положим

S(3) = X(3) – X(1) = [10,75;-3.625]

Направление S(3) оказывается сопряженным с направлением S(2). Поскольку N = 2, то оптимизация вдоль направления S(3) дает искомый результат.
Шаг 4.  Найдем такое значение , при  [X(3) + S(3)]  

X = X(3) + [10,75;-3.625]= [1,75;6,875]+ [10,75;-3.625]

X1 = 1,75 + 10,75          X2 = 6,875-3,625

’(X) = -7,2+2,7

отсюда

= 0.375

тогда

Х(4) = [1,75;6,875]+0.375[10,75;-3.625] = [5,78; 5,52]

[X(4)] = 33,6

Таким образом, получили точку х= [5,78; 5,52]T, значение функции в которой f(x) = 33,6, совпадает со стационарной точкой с определенной долей погрешности. Таким образом, на 5 итерации возможно получение высокоточного ответа.

Вывод: метод сопряженных направлений Пауэлла обеспечивает высокоточный при малом количестве итераций по сравнению с предыдущими методами.

Графическое пояснение метода сопряженных направлений Пауэлла:

Методы прямого поиска являются удобными при простых целевых функциях, или когда необходимо найти оптимум с невысокой степенью точности. Но требуют больших затрат времени и вычислительных ресурсов, из-за большого числа проводимых итераций: метод поиска по симплексу – 16 итераций, метод Хука-Дживса – 5 итераций, метод сопряженных направлений Пауэлла – 4 итерации.

Градиентные методы поиска экстремума функции

В отличие от методов прямого поиска градиентные методы поиска используют информацию о производных функции. Это позволяет уменьшить количество необходимых вычислений значений функции. Эти методы делятся на две группы: методы, использующие информацию только о первых производных, и методы, учитывающие информацию и первых, и вторых производных.

Описание метода Коши

В методе Коши или методе наискорейшего спуска в качестве направления поиска выбирается направление антиградиента. Алгоритм метода выглядит следующим образом:

      x(k + 1) = x(k) - (k)f(x(k)),  где f (x) – градиент.

  Значение (k) на каждой итерации вычисляется путем решения задачи одномерного поиска экстремума f(x) вдоль направления градиента f(x(k)). Если в качестве (k) взять некоторое положительное число, то получится простейший градиентный алгоритм:

      f(k + 1) = x(k) - f(x(k));

Одно из главных достоинств метода Коши является его устойчивость, так как всегда выполняется условие

       f(x(k + 1))   f(x(k));

Однако вблизи экстремума скорость сходимости алгоритма становится недопустимо низкой, так как вблизи экстремума значение градиента стремится к нулю.

Решение:

f(x)= (х1 - 7)2 + (х2 – 6)2 +х1•х2

Условие окончания поиска: выполнение четырех итераций.

f/∂x1=2•x1 + x2 – 14              ∂f/∂x2=x1 + 2•x2 –12

Зададим начальное приближение х(0) = [-9;-10]Т .

Новое приближение определим по формуле:

х(1) = х(0) – α (0)f (x(0) ).

f (x(0) ) = [-42;-41]T

  1.  Выбираем α (0) такое, чтобы минимизировать функцию f (x(1) ).

x(1) = [-9;-10]T- α (0) [-42;-41]T = [-9+ α (0)•42;-10 + α (0)•41]T

По аналогии с предыдущим методом найдем  α (0) = 0.333;

x(1) = [5.001; 3.668]T

  1.  Далее найдём точку x(2) = х(1) - α (1)f (x(1) ).

f (x(1) ) =[-0.332; 0.336]T

x(2) = [5.001; 3.668]T - α (1)•[-0.332; 0.336]T

Найдем α (1) = 1;

x(2) = [5.331; 3.331]T

  1.  Далее найдём точку x(3) = х(2) - α (2)f (x(2) ).

f (x(2) ) = [-0.007;-0.007]T

x(3) = [5.331; 3.331]T - α (2)• [-0.007;-0.007]T

Найдем α (2) = 0.343;

x(3) = [5.333; 3.333]T

После выполнения трех итераций получено  точное решение х* = х(3), при котором значение целевой функции f*=27,7.

Графическое пояснение метода Коши

Вывод: метод Коши обеспечивает высокую точность при очень малом  количестве итераций, т.к. использует информацию о производных.

Метод Ньютона

Этот метод использует информацию о вторых производных целевой функции. Эта информация появляется при квадратичной аппроксимации целевой функции, когда при её разложении в ряд Тейлора учитываются члены ряда до второго порядка включительно.  Алгоритм метода выглядит следующим образом

        x(k + 1) = x(k) - 2f(x(k))-1f(x(k)),  где 2f(x) – матрица Гессе.

  В случае, когда матрица Гессе положительно определена, то направление поиска по методу Ньютона оказывается направлением спуска.

Нахождение минимума целевой функции методом Ньютона:

Исходные данные:

Целевая функция

Нахождение минимума целевой функции методом Ньютона:

f(x) = x12 - 14•x1 + x2 2 - 12•x2 + x1•x2 + 85;

x(0) = [-9;-10]T

f/∂x1=2•x1 + x2 –14;

f/∂x2=x1 + 2•x2 –12;

2f/∂x12=2

2f/∂x1∂x2=1

            

2f/∂x22=2

2f/∂x2∂x1=1

f(x) = [2•x1 + x2 –14;x1 + 2•x2 –12]T

2f(x) =                      =3

f (x(0) ) = [-42;-41]T;

x(1) = x(0) – [2f(x)]-1f (x(0) );

f(x(1)) = 28,7;

Мы получили точку х = [5.333;3.333]Т, значение функции в которой f(x) = 28,7 за одну итерацию, что говорит о пригодности метода для нахождения минимума без использования ЭВМ.

Графическое приложение к методу Ньютона:

Вывод: методом Ньютона точка оптимума найдена за одну итерацию, что гораздо лучше, чем 2 итерации метода Коши, и десятки итераций при методах прямого поиска. Недостатками метода является необходимость знать 1 и 2 производные целевой функции. Иногда это трудно или невозможно. Также при значительно удаленном от оптимального решения  x(0) метод Ньютона не отличается точностью, однако весьма эффективен вблизи точки x*.

Метод сопряженных градиентов

Данный метод обладает положительными свойствами методов Коши и Ньютона. Кроме того этот метод использует информацию только о первых производных исследуемой функции. Метод сопряженных градиентов позволяет получить решение за N шагов в N-мерном пространстве и обладает квадратичной сходимостью. В основе метода лежит организация поиска вдоль сопряженных направлений, причем для получения сопряженных направлений используется квадратичная аппроксимация целевой функции и значения компонент градиента.

Алгоритм:

Шаг 1: Задаем начальные данные

Шаг 2: Операции аргумента проводятся по формуле

                       x(k + 1) = x(k) + (k)s(x(k))

  Направление поиска на каждой итерации определяется с помощью формулы

                       s(k) = -g(k) + s(k - 1)

В этом случае направление s(k)  будет С - сопряжено со всеми ранее

построенными направлениями поиска.

Шаг 3:  Если функция f(x1, x2, ... , xN) квадратичная, то для нахождения

точки экстремума требуется определить N-1 таких направлений и

провести поиски вдоль каждой прямой.  Если f(x) не является квадратичной, то количество поисков возрастет.

Используемые формулы:

Градиент квадратичной функции:

 Vf(x) = Vg(x) = Cx + b = g(x).

Изменение градиента при переходе от точки х(0) к точке х(1):

 Δg(x) = g(x(1)) – g(x(0)) = C(x(1) – x(0))

Δg(x) = CΔx

Изменения аргумента:

x-(k+1) = x(k)α(k)s(x(k)).

Направление поиска:

 s(k) = -g(k) + ∑ γ(i) s(i) , s(0) = -g(0), γ(i) =

s(k) = -g(k) + *s(k+1)           (формула Флетчера-Ривса)

Нахождение минимума целевой функции методом сопряжённых градиентов:

Решение:

f(x)= (х1 - 7)2 + (х2 – 6)2 +х1•х2

x(0) = [-9;-10]T

ШАГ 1:

f(x) = [2•x1 + x2 – 14 ; x1 + 2•x2 –12]T

f(x(0) ) = [-36;-34]T

s(0) = -g(0) = -f(x(0) ) = -[-42;-41]T

ШАГ 2:

Поиск вдоль прямой:

х(1) = х(0) - a(0)f(x(0) )  a(0) =0.358;

х(1) = [-9;-10]Т – 0.358•[-42;-41]T = [1.74; 6.468]T

ШАГ 3:

Определим направление s(1):

g(1) = [-4.05; 2.7]Т

s(1) = -g(1) + [ |g(1)|2 / | g(0)|2 ]•s(0) ;

s(1) = -[-4.05; 2.7]Т +[42;41]T ( [-4.05; 2.7]Т / [-42;-41]T )2= [4.257; -2.361]T

ШАГ 4:

Поиск вдоль прямой:

x(2) =  x(1) + a(1)s(1)   a(1) = 0.864;

х(2) = [1.74; 6.468]T + 0.864[4.257; -2.361]T = [5.9;4.1]T

ШАГ 5:

g(2) = [1.9; 2.2]Т

s(2) = -g(2) + [ |g(2)|2 / | g(1)|2 ]•s(1) ;

s(2) = -[1.9; 2.2]Т +[4.3;-2.4]T ([1.9; 2.2]Т / [-4.05; 2.7]Т)2= [-0.36; -3.09]T

ШАГ 5:

Поиск вдоль прямой:

x(3) =  x(2) + a(2)s(2)   a(2) = 0.35;

х(3) = [5.9;4.1]T + 0.35[-0.36; -3.09]T = [5.8;3.09]T

Таким образом, проделав 3 итераци, мы пришли к точке х(3)= [5.8;3.09]T, отличной от точки экстремума х*=[5.333; 3.333] в первом знаке после запятой, что говорит о влиянии сокрашений на результат .


Графическое приложение к методу сопряжённых градиентов:

Вывод: метод сопряженных градиентов вобрал в себя все лучшее от методов Коши и Ньютона, т.е. одинаково хорошо доставляет минимум функции на значительном удалении от х* и вблизи нее.

Квазиньютоновский метод

Данный метод обладает положительными чертами метода Ньютона, однако, использует информацию только о первых производных. В этом методе приближение к очередной точке в пространстве оптимизируемых параметров задается формулой

                                              x(k+1) = x(k) + (k)s(k) .

Направление поиска определяется выражением

s(k) = -A(k)(X(k)),  где A(k) - матрица порядка NN.

Матрица A – вычисляется по формуле

          A(k) = A(k-1) +Ac(k-1),где 

                    Ac(k-1) = ;      (1)

,где g(k) = g(k) - g(k-1)   изменение градиента на предыдущем шаге.

Нахождение минимума целевой функции Квазиньютоновским методом:

Нахождение минимума целевой функции Квазиньютоновским методом:

f(x) = x12 - 14•x1 + x2 2 - 12•x2 +85+ x1•x2;

x(0) = [-9;-10]T

f/∂x1=2•x1 + x2 –14              ∂f/∂x2=x1 + 2•x2 –12

ШАГ 1:

f(x) = [2•x1 + x2 –14; x1 + 2•x2 –12]T

f(x(0) ) = [-42;-41]T

 Положим s(0) =  -f(x(0) ) = [42;41]T;

ШАГ 2:

Поиск вдоль прямой:

х(1) = х(0) - a(0)f(x(0) )  a(0) = 0.333;

х(1) = [-9;-10]Т – 0.333 •[-42;-41]T = [4.99; 3.65]T;

ШАГ 3:

А(0) = Е =

х(0) = [4.99; 3.65]T - [-9;-10]T =  [13.99; 13.65]T;

g(0) = g(1) – g(0) = [-0,375; 0,292]T -  [-42;-41]T = [41.6; 41.3]T;

А(1) = A(0) + Ac(0);

s(1) = - A(1)g(1);

s(1) = [0.347; -0.32]T;

ШАГ 4:

Поиск вдоль прямой:

х(2)  = x(1) + (1)s(1) =[4.99; 3.65]T+(1) [0.347; -0.32]T;

 (1) =1.003;

x(2) =  [5,333; 3.333]Т

Точность метода позволяет уже на четвертом шаге считать текущую точку точкой-экстремумом. Т.е. х* = х(2) = [5,333; 3.333]Т;

f(x*) =27,7;

Вывод: Квазиньютоновский метод позволяет достаточно быстро вычислить точку оптимума, и использует информацию только о первых производных в отличии от метода Ньютона. Неточность появляется вследствие округления.

Графическое приложение к квазиньютоновскому методу:

Поиск условного экстремума

Все предыдущие методы поиска оптимума функции были предназначены для задач безусловной оптимизации. Ниже будет разобран метод штрафных функций, один из многих, предназначенных для решения более сложных задач, в которых область поиска ограничена из каких-либо практических соображений.

Метод штрафных функций

Суть метода заключается в преобразовании исходной целевой функции посредством включения в нее функции от ограничений, получая, таким образом, задачу безусловной оптимизации, для решения которой можно использовать рассмотренные в первой части методы. Переход от задачи условной оптимизации к задаче безусловной оптимизации осуществляется посредством включения в исходную функцию “штрафов” за нарушение ограничений задачи. Если исходная задача имеет следующий вид:

min  f (x),        ХRN 

при ограничениях    

          gj (x)  ≥  0

hk(x)  =  0,    k = 1...K

то преобразованная задача имеет вид:

P(x,R) = f(x) + [R, h(x),g(x)]

,где - штрафная функция от ограничений задачи, а R - штрафной пара-метр. Наличие штрафного параметра R вызвано тем, что введение штрафной функции сильно деформирует поверхность целевой функции, что, в свою очередь, приводит к ухудшению обусловленности преобразованной задачи. Поэтому параметр R служит “регулятором” веса штрафной составляющей в целевой функции, и процесс решения задачи разбивается на ряд вспомогательных задач с различными значениями параметра R и контролем сходимости их решений.

    Виды штрафов

 

  Квадратичный штраф имеет вид = R{h(x)}2. Этот вид штрафов используется для учёта ограничений-равенств. Функция непрерывна и имеет непрерывную производную, откуда следует, что если непрерывны и дифференцируемые f(x) и h(x), то стационарную точку можно найти ана-литически.       

 Логарифмический штраф

     = - Rln(g(x));

Этот штраф положителен для всех х таких, что 0 < g(x) <1, и отрицателен при g (x) > 1. Логарифмический штраф – это барьерная функция, неопределённая в точках, где g (x) < 0. Поэтому на начальном этапе поиска, когда значение шага поиска велико, необходимо обеспечить защиту процедуры от попадания рабочей точки в недопустимую область.

 Штраф, заданный обратной функцией

= R•1/g(x);

Как и предыдущий штраф, является барьерным. В допустимой области вблизи границы значение штрафа быстро убывает при продвижении внутрь допустимой области. На самой границе значение P(x,R) неопределено, как и в предыдущем случае возможно появление недопустимых точек.

Штраф типа квадрата срезки

= R•<g(x)>2,

              α, если α ≤ 0,

< α > =

    0,если α  >  0.

Этот штраф является внешним, и недопустимые точки не создают проблем по сравнению с допустимыми. Различие заключается в том, что в допустимых точках штраф равен нулю. Этот вид штрафа удобен тем, что P(x,R) непрерывна и определена всюду. Параметр R положителен и увеличивается от итерации к итерации.

Задача

Метод штрафных функций:

Нахождение минимума целевой функции :

Исходные данные:

- начальная точка;

Ограничение на решение:

Преобразуем целевую функцию  введением в неё заданного квадратичного штрафа: 

Найдем минимум целевой функции  с заданным квадратичным штрафом:

Совместное решение даёт:

Устремляя  к нулю, получаем

То есть, при изменении  от нуля до бесконечности, решение будет изменяться от минимума задачи с учётом ограничений до минимума функции без учёта ограничений.

Исследуем функцию при различных значениях параметра    , то есть    

1.

2.

3.

4.

Сведем все данные в таблицу:

Решением задачи условной оптимизации является точка: , значение целевой функции в которой равно: . Мы подтвердили, что при увеличении штрафного параметра все ограничения уменьшаются, что доставляет минимум задачи безусловной оптимизации. Наоборот, при уменьшении штрафного параметра до нуля вес ограничения возрастает, что доставляет минимум задачи условной оптимизации

   Видно, что при увеличении штрафного коэффициента R его влияние на целевую функцию снижается, что и предоставляет возможность отыскать ее экстремум с достаточно большой точностью.

Графическое приложение к методу штрафных функций:

Выводы по основной части работы

   Рассмотренные группы методов безусловной оптимизации можно сравнить по скорости и точности их работы.

   Методы прямого поиска, хотя и не требуют большей, чем значения целевой функции, информации о поведении последней, однако, производят большое количество итераций при доставлении решения с высокой точностью, так как поиск производится ими «вслепую». Так, эвристические алгоритмы поиска достигают решения за несколько десятков итераций, а теоретические выполняют до десяти итераций (в зависимости от вида функции).

   Градиентные методы обладают большей скоростью, но требуют для своей работы информацию о поведении функции в виде производных, найти которые иногда очень сложно.

Их достоинством является высокая точность получения решений.

   Таким образом, среди рассмотренных алгоритмов нет ни одного в полной мере универсального, подходящего для решения задач при любых условиях.


Заключение

   Анализируя результаты исследования (сравнения) всех рассмотренных выше методов, можно прийти к выводу о том, что каждый из них имеет свои достоинства и недостатки и более применим для задач одних видов и менее – для других. Однако, пользователь всегда сможет найти подходящий алгоритм для решения своей конкретной проблемы, выбирая как из вышеприведенного множества методов, так и из огромного спектра их модифицированных, усовершенствованных и комбинированных вариантов.

   Однако, есть целый класс проблем, где найти оптимум либо крайне сложно, либо вообще невозможно получить точное решение с помощью алгоритмов данных категорий. К таким задачам относится, например, моделирование глобальных социально-экономических процессов.


Библиографический список литературы:

  1.  Карманов В.Г. Математическое программирование. – М: Наука. Главная редакция физико-математической литературы, 1986
  2.  Коршунов Ю.М. Математические основы кибернетики. – М: Энергия, 1980.
  3.  Микрюкова В. И. Методы оптимизации. Методические указания по выполнению курсовой работы. Киров, 2010.
  4.  Микрюкова В. И.: курс лекций по дисциплине «Методы оптимизации».


1

1      2

  1.     0

0      1


 

А также другие работы, которые могут Вас заинтересовать

55344. ПРОЕКТНА ТЕХНОЛОГІЯ ЯК ШЛЯХ ДО РЕАЛІЗАЦІЇ ОСОБИСТІСНО-ОРІЄНТОВАНОГО НАВЧАННЯ 162.5 KB
  Хотілося б звернути увагу на те що проектні технології навчання відтворюють процеси дослідницької діяльності оскільки містять цикл і мають на меті процеси руху від незнання до знання на відміну від традиційних лінійних технологій навчання.
55345. ПІДСТАВКИ ДЛЯ ПАЯЛЬНИКА 295.5 KB
  Визначити призначення виробу: підставка призначена для утримання електропаяльника в нагрітому чи холодному стані в проміжках між роботою та зберігання матеріалу необхідного при паянні.
55347. Зелений клас 192 KB
  Вирішили зробити проект тому що форма проектування дійсно дає змогу консолідувати зусилля усіх сторін і суб’єктів навчальновиховного процесу розширює рамки творчої діяльності. Тематичний напрямок проекту.
55348. Біла ромашка - символ чистого дихання 41 KB
  Мета проекту: формування у шкільної молоді моральних цінностей та життєвих навиків, які сприяють вихованню потреби практично впливати на подолання негативних поведінкових проявів...
55349. МОЄ СЕРЦЕ ВІДКРИТЕ ДЛЯ ДОБРА 304.5 KB
  Мета проекту: привернути увагу учнів Манвелівської школи, батьків, вчителів до проблем соціально-незахищених категорій населення сіл Манвелівка, Нововасильківка, Красне, Зоря, Іванівка та поліпшення умов їх життя;
55350. Край, у якому ти живеш. Старожитня Кам’янка 5.42 MB
  Мета: збагачувати знання учнів про рідний край, а також активний словниковий запас учнів; пробудити інтерес до вивчення історії Кам’янки; розширити знання про історичне минуле рідного краю;...
55352. Я ХОЧУ БІЛЬШЕ ЗНАТИ ПРО МОЮ БАТЬКІВЩИНУ - УКРАЇНУ 67 KB
  За кількістю учасників: груповий За характером контактів: зовнішній. привчати дітей самостійно працювати в бібліотеці; Очікувані результати Учні навчаться знаходити необхідну інформацію в бібліотеці та навчаться працювати з каталогами;