Методы оптимизации в технико-экономических задачах

Дипломная работа - Менеджмент

Другие дипломы по предмету Менеджмент

кономика рассматривает два основных раздела:

  1. методы оптимизации;
  2. макроэкономические модели.

В условиях современной рыночной экономики каждый день приходится принимать важные решения, просчитывать различные варианты и ходы, делать выбор. Часто цена ошибки бывает слишком велика, поэтому каждому субъекту рыночных отношений необходимо опираться на точный математический расчёт. Таким образом, методы оптимизации в экономике играют всё более и более важную роль.

В рамках данной курсовой работы рассмотрены наиболее часто используемые методы решения различных экономических задач.

1. Неклассические методы оптимизации

 

.1 Теоретическая часть

 

Одним из самых распространённых методов минимизации, связанных с вычислением градиента, является метод спуска по направлению антиградиента минимизируемой функции.

Суть метода градиентного спуска

В природе мы нередко наблюдаем явления, сходные с решением задачи на нахождение минимума. К ним относится, в частности, стекание воды с берега котлована на дно. Упростим ситуацию, считая, что берега котлована "унимодальны", т.е. они гладкие и не содержат локальных углублений или выступов. Тогда вода устремится вниз в направлении наибольшей крутизны берега в каждой точке.

Переходя на математический язык, заключаем, что направление наискорейшего спуска соответствует направлению наибольшего убывания функции. Из курса математики известно, что направление наибольшего возрастания функции двух переменных u=f(x,y) характеризуется ее градиентом

 

 

где i, j - единичные векторы (орты) в направлении координатных осей. Следовательно, направление, противоположное градиентному, укажет путь, ведущий вниз вдоль наиболее крутой линии. Методы, основанные на выборе пути оптимизации с помощью градиента, называются градиентными.

Идея метода градиентного спуска состоит в следующем. Выбираем некоторую начальную точку и вычисляем в ней градиент рассматриваемой функции. Делаем шаг в направлении, обратном градиентному. В результате приходим в точку, значение функции в которой обычно меньше первоначального. Если это условие не выполнено, т. е. значение функции не изменилось либо даже возросло, то нужно уменьшить шаг. В новой точке процедуру повторяем: вычисляем градиент и снова делаем шаг в обратном к нему направлении. Процесс продолжается до выполнения условия останова.

Все методы спуска решения задачи безусловной минимизации различаются либо выбором направления спуска, либо способом движения вдоль направления спуска.

Это позволяет написать общую схему методов спуска.

Решается задача минимизации функции f(x) на всём пространстве Еn.

Методы спуска состоят в следующей процедуре построения последовательности {х(к)}. В качестве начального приближения выбирается любая точка х(0) с Еn. Последовательные приближения х(1), х(2),.. строятся по следующей схеме:

  1. в точке х(к) выбирают направление спуска - Sk;
  2. находят (к+1)-е приближение по формуле х(k+1) = хk -?к*Sk.

Направление Sk выбирают таким образом, чтобы обеспечить неравенство f(x(k+1))<f(x(k)) по крайней мере для малых значений величины ?к.

Число ?к определяет расстояние от точки х(к) до точки х(к+1). Это число называется длиной шага или просто шагом.

Основная задача при выборе величины ?к - это обеспечить выполнение неравенства f(x(k+1))<f(x(k)). Одним из элементарных способов выбора шага является способ удвоения шага.

Выбирают ак=ак-1. Если при этом f(x(k+l))<f(x(k)), то либо переходят к следующей (к+2)-й итерации, либо выбирают ак-2ак-1. Если значение f(x) меньше его предыдущего значения, то процесс удвоения можно продолжать до тех пор, пока убывание не прекратится.

Если f(x(k+1))>f(x(k)), то выбирают ?k=0.5* ?k. Если f(x(k)- 0.5* ?k *S(k))f(x(k)), то выбирают ?к =0.25 ?к-1 и т.д.

Метод градиентного спуска сходиться достаточно медленно, поэтому чаще для решения задачи безусловной минимизации функции нескольких переменных используют метод Ньютона, сходимость которого на порядок выше.

Рассмотрим метод Ньютона.

Сначала необходимо найти стационарную точку как:

 

(1.1)

 

Систему (1.1) решаем приближенно методом Ньютона для решения системы нелинейных уравнений, который основан на разложении в ряд Тейлора, т.е. с использованием первого дифференциала :

 

 

где ,

,

,

- остаточный член.

 

Затем приравниваем левую часть уравнения к 0 и отбрасываем . В результате получим:

 

.

Новые приближения и :

 

(1.2)

 

Выразим остальные члены:

 

,

,

,

.

 

Тогда получим следующую систему уравнений:

 

,

 

где и - неизвестные.

Матрица этой системы является матрицей Гессе:

 

, (1.3)

 

где .

Из (1.2) находим точку минимума функции.

К достоинствам метода Ньютона стоит отнести быструю сходимость, недостатком же является необходимость нахождения первой и второй производных минимизируемой функции.

При решении системы (1.3) может возникнуть осложнения, связанные с быстрым накоплением ошибки округления, тогда стоит прибегнуть к упрощенному методу Ньютона. Ошибка округления должна проверяться на каждом шаге - вычисления должны дублироваться в двух типах данных.

Если ошибка округления начинает недопустимо возрастать, то:

 

,

 

а затем вернуться на ша