Главная страница

Методы оптимизации. Конспекты по методам оптимизации. 1. основные положения оптимизации


Скачать 318.5 Kb.
Название1. основные положения оптимизации
АнкорМетоды оптимизации
Дата19.04.2023
Размер318.5 Kb.
Формат файлаdoc
Имя файлаКонспекты по методам оптимизации.doc
ТипЗадача
#1073516
страница2 из 4
1   2   3   4

1.2. Классические основы оптимизации



Классические основы оптимизации определяются методами исследования функций в математическом анализе.

Известно, что функция f(x) имеет локальный минимум в точке х0 ,если существует некоторая положительная величина d, такая, что если Ѕх - х0Ѕ <d, то f(x)f(x0), т.е. если существует окрестность точки x0, такая, что для всех значении х в этой окрестности f(x) больше f(x0). Функция f(x) имеет глобальный минимум в точке х*, если для всех х справедливо неравенство f(x) f(x*).

На рис.1а дано графическое представление функции f(x), которая имеет локальный минимум в точке x0 и глобальный минимум в точке х*.



Рис. 1 а. Локальный и глобальный минимумы
Классический подход к задаче нахождения значений x0 и х* состоит в поиске уравнений, которым они должны удовлетворять. Представленная на рис. 1а функция и ее производные непрерывны, и видно, что в точках x0 и х* производная f’(x) (градиент функции) равна нулю. Следовательно, x0 и х* будут решениями уравнения

f’(x) = 0.

Точка xm, в которой достигается локальный максимум, и точка xс, в которой имеется точка горизонтального перегиба функции, также удовлетворяют этому уравнению. Следовательно, уравнение f’(x) = 0 является только необходимым условием минимума, но не является достаточным условием минимума.

Заметим, однако, что в точках x0 и х* производная f’(x) меняет знак с отрицательного на положительный. В точке xm знак меняется с положительного на отрицательный, в то время как в точке xc он не меняется. Следовательно, производная в минимуме является возрастающей функцией, а поскольку степень возрастания f’(x) измеряется второй производной, можно ожидать, что f”(x0)>0, f”(x*) > 0, тогда как f”(xm) < 0.

Если, однако, вторая производная равна нулю, ситуация остается неопределенной.

Полученные выше результаты могут найти надежное обоснование, если рассмотреть разложение функции f(x) в ряд Тейлора в окрестности точки x0 (или х*, или xm), что требует непрерывности функции f(x) и ее производных:

f(x0+ h) f(x0) = h f’(x0) + (h2/2!) f”(x0) +...

Если в точке x0 достигается минимум, то левая часть уравнения будет неотрицательной для любого достаточно малого h. Следовательно, первая производная f’(x0) должна быть равна нулю. Это является достаточным условием (см. уравнение f’(x) = 0). Если бы она была положительной, то достаточно малое отрицательное значение h делало бы правую часть

f(x0+ h) f(x0) = h f’(x0) + (h2/2!) f”(x0) +...

отрицательной, а если бы она была отрицательной, то достаточно малое положительное значение h делало бы правую часть отрицательной.

Так как всегда h2 > 0, то, если f”(x0) > 0, в точке x0 достигается минимум. Если f’(xm) = 0 и f”(xm) < 0, то из аналогичных соображений в точке xm достигается максимум. Для определения различия между локальным и глобальным минимумами необходимо сравнить значения функций f(x0) и f(x*).

Например, исследуем характер точек перегиба функции

f(x) = х3 2х2 + х + 1,

так как f’(x) = 3х2 4х + 1 = 0 и (3х 1)(х 1) = 0, то х = 1/3 или х = 1.

При х = 1/3 производная f(x) меняет знак с положительного на отрицательный, а при х = 1 с отрицательного на положительный. Следовательно, в точке х = 1/3 достигается максимум, а в точке х = 1 минимум.

Этот пример может быть решен более простым способом, если вычислить вторую производную f”(x) = 6х 4:

f”(1/3) = 2, т.е. отрицательна, и при х = 1/3 достигается максимум;

f”(1) = 2, т.е. положительна, и при х = 1 достигается минимум. Неоднозначность, возникающую при f”(x) = 0, можно разрешить, увеличив количество членов в формуле разложения в ряд Тейлора:

f(x0 + h) -f(x) = hf’(x0) + (h2/2!) f”(x0) + (h3/3!) f”’ (x0) + (h4/4!) f”’’ (x0) +...

При этом можно сформулировать следующее правило:

“Если функция f(x) и ее производные непрерывны, то точка x0 является точкой экстремума (максимума или минимума) тогда и только тогда, когда n четное, где n порядок первой необращающейся в нуль в точке x0 производной. Если f”(x0) < 0, то в точке x0 достигается максимум, если f”( x0) > 0, то в точке x0 достигается минимум”.

Например, найдем точку перегиба функции f(x) = (х 1)6.

f’(x) = 6(х 1)5 = 0 при х = 1.

Первой необращающейся в нуль в точке х = 1 производной будет f6(1) = 6!. Следовательно, функция f(x) имеет минимум в точке х = 1.

Функцию n действительных переменных можно представить как

F(x1 , x2 , x3 ,..., xn).

Точка в n-мерном евклидовом пространстве с координатами x1 , x2 , x3 ,..., xn обозначается вектором-столбцом х. Градиент функции, т.е. вектор с компонентами f/x1, f/x2,…, f/xn, обозначается С f(x) или, иногда, g(x). Наиболее распространенные задачи оптимизации заключаются в нахождении минимума (или максимума) функции или функционала. В первом случае находят значение n переменных х1, х2, ..., хn, при которых функция F (х1, х2,..., хn) принимает экстремальное значение F = min(max).

В простейшем случае дифференцируемости функции и неравенства нулю вторых производных задача сводится к решению n алгебраических (в общем случае нелинейных) уравнений

d
(1-1)
F/dx
i= 0, i = 1, 2, ..., n.

При оптимизации управления приходится оперировать с большим числом переменных. В этом специфика задач оптимизации, и это затрудняет решение уравнений оптимизации даже с помощью ЭВМ.

Если функция F(x), где x = (x1, x2,..., xn), помимо переменных x1, x2,..., xn зависит еще (параметрически) от другой переменной λ, то решение для каждого значения λ соотношения (1-1) дает оптимальный закон управления

x() = {x1(), x2(),…, xn()}.

Здесь мы уже переходим, по существу, к понятию функционала, частным случаем которого является функция. Методы оптимизации, использующие этот критерий, составляют содержание раздела математики, названного вариационным исчислением. Понятие функционала в математике является дальнейшим обобщением понятия функции. Не очень строго функционал можно определить как функцию от функции, т.е. функцию, в которой в качестве независимой переменной выступает другая функция.

Если одному множеству М значений величины х (хМ) соответствует другое множество Nзначений величины y, то говорят, что y является функцией х, т.е. y = f(x).

Например, пусть М {1, 4, 9, 8} и N {20, 70,90, 110} и пусть каждому значению x из множества М соответствует одно значение y из множества N. Это – метод задания функции в виде таблиц. Он часто встречается в кибернетике. Аналитически функция может быть задана в виде y = x2, y = sin x.

Если М – множество функций и каждой функции f(x), принадлежащей М{f(x)M}, ставится в соответствие определенное значение величины y из множества N, то говорят, что на множестве М задан функционал.

Например

М {sin x, cos x, tg x, ctg x}

и

N {3, 4, 5, 18}.

Другим примером функционала может служить определенный интеграл

I = I {y(x)} =

Каждой функции y (x) будет соответствовать числовое значение I. Так, при y = x I = 1/2, при y = x2 I = 1/3.

Можно поставить задачу отыскивания такой функции y(x), которая обращала бы этот функционал в минимум (максимум), т.е.

I{y}→min(max).

В общем случае подынтегральное выражение в функционале может зависеть явно от аргумента х, у и производной y’:

I
(1-2)
{y} = (x, y, y’)dx.

Нетрудно показать, что запись (1-2) включает в себя функцию. Так, если положить

F (x, y, y’) = f(x) g (t-x),

то

I = f(x) g (t-x)dx = f(x),

при a < t < b.

Аналогично, если положить

F (x, y, y’) = ci fi(x) g (ti-x),

то

I = ci fi(ti).

Иногда считают, что функционал является функцией бесконечного числа переменных. Соответственно, вариационное исчисление можно рассматривать как обобщение методов отыскивания экстремума функции на случай большого или бесконечного числа переменных. Действительно, функцию у(х) в формуле (1-2) можно заменить приближенно ломаной линией (рис. 1) с вершинами y0 = y(x0) = y(a), y1 = y(x0 +Δx), yn = y(x0nx) = y(b), а интеграл – суммой:

I = F (xi, yi(yi – yi–1)/ Δx)Δx.

Рис. 1. Замена интеграла на сумму
После этого вариационная задача приближенно решается как обычная задача на отыскивание экстремума функции n переменных

I = (y1, y2,..., yn).

Такой вывод использовал для своего основного уравнения вариационного исчисления Эйлер.

Однако большинство задач оптимизации содержит ограничения на исходную функцию. Пусть требуется минимизировать функционал

I = (x, y, y’)dx  min

при наличии ограничений

k(x, y, y’)≤0;

k = 1, 2, 3, ..., m,

где φk - некоторые функции.

Смысл этих соотношений состоит в том, что отыскивается не любая функция у(х), обращающая функционал в минимум, а такая, которая удовлетворяет системе ограничений. Нетрудно убедиться, что тем самым значение условного экстремума (экстремум функции при условии, когда на критерий оптимизации наложены ограничения) не может быть меньше значения абсолютного экстремума (без ограничений). Аналогичным образом формируется критерий оптимальности (с ограничениями) для функции

F
(1-3)
(x1, x2, ..., xn)  min;

k(x1, x2, ..., xn)≤0,

k = 1, 2, 3, ..., m.

В классическом вариационном исчислении в функционале интеграл понимается в обычном смысле как предел сумм Дарбу. Далее в целях соблюдения прикладного уровня изложения будет использовано классическое понятие функционала (если не дано специальных оговорок).

Следует заметить, что во всех приведенных формулах переменные х и у могут быть векторами:

х = (x1, x2, ..., xn);

y = (y1, y2,... yn ;

F = (F1, F2, ..., Fp).

Такая форма записи широко используется, и, в частности, она учитывает случаи оптимизации функции многих переменных и оптимизации нескольких функций.

Задачи оптимизации при наличии ограничений, по существу, привели к пересмотру классических методов и созданию новых методов, известных под названием методов программирования. Если в формулах (1-3) все функции линейные, налицо задача линейного программирования. В общем случае эти соотношения определяют задачу нелинейного программирования.


1   2   3   4


написать администратору сайта