Методы многомерной оптимизации: многомерная оптимизация методом Хука и Дживса

Контрольная работа - Компьютеры, программирование

Другие контрольные работы по предмету Компьютеры, программирование

stringgrid1.Cells[7,q]:=dstr;.stringgrid1.Cells[8,q]:=FloatToStr(Shag);.stringgrid1.Cells[9,q]:=ystr;;q>100 then:=true; (функция не оптимизируется);

end;

2then:=func(0);.stringgrid1.Cells[1,q]:=FloatToStr(Zfun);;;.Edit1.Text:=FloatToStr(k);.Edit6.Text:=[+FloatToStrF(x.one,ffFixed,7,4)+;">end;q>2 then:=func(0);.stringgrid1.Cells[1,q]:=FloatToStr(Zfun);;;.Edit1.Text:=FloatToStr(k);.Edit6.Text:=[+FloatToStrF(x.one,ffFixed,7,4)+;

+ FloatToStrF(x.two,ffFixed,7,4)+];.Edit7.Text:=FloatToStr(Zfun);;

end.

 

Сводные таблицы

 

Хук и Дживс

ТочностьОпт. значение аргументаОпт. значение функцииКол-во итерацийНачальная точка X0 = [1;0]0.1[3,8826;1,3109]0,0026966022087435630.01[4,0037;1,3344]1,48019246160121E-730.001[3,9957;1,3321]6,03879971567203E-83Начальная точка X0 = [-2;2]0.1[3,7289;1,2470]0,0055469777008161550.01[3,9867;1,3287]2,17609241998115E-760.001[3,9907;1,3305]5,73924492635677E-77Начальная точка X0 = [4;2]0.1[4,5855;1,5198]0,11819913249249120.01[4,5914;1,5296]0,12230438890846920.001[4,0108;1,3372]6,2375505275578E-75Розенброк

ТочностьОпт. значение аргументаОпт. значение функцииКол-во итерацийНачальная точка X0 = [1;0]0.1[3,8825;1,3110]0,0026966022087429820.01[4,0036;1,3345]1,48019246160075E-730.001[3,9956;1,3322]6,03879971567171E-83Начальная точка X0 = [-2;2]0.1[3,7288;1,2471]0,0055469777008156560.01[3,9866;1,3288]2,17609241998102E-760.001[3,9906;1,3306]5,73924492635629E-77Начальная точка X0 = [4;2]0.1[4,5854;1,5199]0,11819913249246430.01[4,5913;1,5297]0,12230438890845340.001[4,0107;1,3373]6,2375505275548E-75

Выводы

 

В ходе лабораторной работы был изучен метод многомерной оптимизации Хука и Дживса с непрерывным шагом.

Метод относится к категории методов,в которых используется поиск по направлению. Алгоритмы,в которых используется такой поиск, называют алгоритмами ускоряющего шага. Каждая итерация этих алгоритмов состоит из двух этапов: поиск вдоль координатных осей, или, исследующий поиск; поиск по образцу, или ускоряющий шаг.

Была написана программа и с помощью неё изучена функция

 

F(X) = (Х1-4)4 +(X1-3X2)2

 

Для наглядности результатов были проварьированы точность (основное значение критерия остановки) и начальная точка.

Были сделаны следующие выводы:

количество итераций увеличивается с увеличением точности

количество итераций увеличивается в зависимости от удаленности начальной точки от оптимального решения..

Экспериментальное сравнение алгоритмов Хука-Дживса и Розенброка по числу вычислений и по числу вызова оптимизируемой функции в процессе оптимизации показывает в пользу алгоритма Розенброка. Но в методе Розенброка вычислительные затраты идут на пересчет системы ортогональных направлений.