Главная страница

Задача на условный экстремум 61 нелинейное программирование 72 метод Ньютона в нелинейном программировании 88 выпуклое программирование 96


Скачать 0.96 Mb.
НазваниеЗадача на условный экстремум 61 нелинейное программирование 72 метод Ньютона в нелинейном программировании 88 выпуклое программирование 96
Дата18.01.2022
Размер0.96 Mb.
Формат файлаpdf
Имя файлаAfanasyev_A_P__Dzyuba_S_M_Elementarnoe_vvedenie_v_teoriyu_extrem.pdf
ТипЗадача
#335249
страница11 из 13
1   ...   5   6   7   8   9   10   11   12   13
hb, µi ? min,
c + A
T
µ ? 0,
µ ? 0.
(4) Для задачи (2) сформулируйте и докажите аналоги тео- рем 1315.
џ6. Cимплекс-метод
Как уже отмечалось ранее, решение задачи линейного про- граммирования достигается в одной из вершин многогранного множества. С другой стороны, предложение 1 позволяет отыс- кать такую вершину посредством нахождения решения неко- торой системы линейных уравнений. Поскольку число таких вершин конечно, то решение задачи линейного программиро- вания, вообще говоря, можно найти за конечное число шагов путем перебора вершин. При этом каждый из шагов вклю- чает в себя составление некоторой системы линейных уравне- ний (отыскание вершины) с последующим отысканием реше- ния этой системы.
Симплекс-метод использует ту же идею, но реализует ее гораздо более тонко. Во-первых, просмотр вершин ведется та- ким образом, что значения целевой функции монотонно убы- вают. Это позволяет сразу существенно сократить перебор, по- скольку отбрасываются вершины со значением целевой функ- ции, большим уже найденного. Во-вторых, перебор ведется по соседним вершинам. Поэтому система линейных уравнений на новом шаге мало чем отличается от предыдущей. Последнее позволяет существенно сократить вычисления посредством ис- пользования специальных экономичных методов решения по- добных систем.

џ6. Симплекс-метод
119
Общие положения. Симплекс-метод всегда применяют для задач линейного программирования, записанных в кано- нической форме
hc, xi ? min,
Ax = b,
x ? 0,
(1)
где, как и ранее, x ? R
n
, A  прямоугольная (m Ч n)-матрица,
c
и b  вектора в пространствах R
n
и R
m
соответственно.
Обозначим через Q многогранное множество
Q = {x ? R
n
: Ax = b, x ? 0}.
Тогда, используя технику выпуклого анализа, несложно дока- зать следующее предложение, весьма важное для реализации симплекс-метода.
Предложение 3. Предположим, что многогранное мно- жество Q непусто. Тогда Q не содержит прямых, вершина- ми множества Q являются те точки x = (x
1
, . . . , x
n
),
для которых выполнено неравенство
x
i
> 0,
а соответсвующие столбцы a
i
матрицы A линейно незави- симы.
Доказательство предложения 3 можно найти, например, в книге [16]. Из предложения 3 же следует, что в каждой вер- шине множества Q могут быть положительны не более, чем
m
компонент вектора x. Назовем точку x невырожденной вер- шиной, если число положительных компонент в ней равно m.
При этом везде в дальнейшем будем считать, что множество
Q
непусто, а все его вершины невырождены.
Заметим теперь, что в симплекс-методе исторически сло- жилась весьма специфическая терминология, с небольшими изменениями используемая в различных руководствах по ли- нейному и выпуклому программированию. Именно, допусти- мую точку часто называют планом, вершину  опорным пла- ном или допустимым базисным решением, а решение зада- чи (1)  оптимальным планом. Столбцы матрицы A, соот- ветствующие положительным компонентам опорного плана в

120
Гл. 2. Математическое программирование этом случае называют базисом. В дальнейшем, однако, следуя книге [16] мы не будем чрезмерно злоупотреблять такой тер- минологией, по возможности стараясь сохранить прежнюю 
допустимая точка, вершина и т.д.
Описание симплекс-метода. Предполжим, что на k-ом шаге симплекс-метода получена точка x
k
= (x
1
k
, . . . , x
n
k
)
, явля- ющаяся невырожденной вершиной многогранного множества
Q
. При этом положим
I
k
= {i : x
i
k
> 0}.
Согласно принятой невырожденности точки x
k
множество
I
k
содержит ровно m элементов. Разобъем вектор x
k
на две группы
x
k
= {u, v},
где u ? R
m
соответствует компонентам x
i
k
с индексами из I
k
, а
v ? R
n?m
 компонентам x
i
k
с индексами, не принадлежащими
I
k
. Тогда система
Ax = b
может быть переписана в следующем виде
A
1
u + A
2
v = b,
(2)
где A
1
 (m Ч m)-матрица, столбцы которой являются столб- цами a
i
матрицы A с индексами из I
k
, а A
2
 (m Ч (n ? m))- матрица, составленная из остальных столбцов матрицы A.
Поскольку по предположению x
k
 невырожденная вер- шина, то в силу предложения 1 матрица A
1
невырождена. По- этому, разрешая систему (2), имеем
u = A
?1 1
(b ? A
2
v).
(3)
Заметим теперь, что целевая функция в задаче (1) может быть записана в следующем виде:
hc, xi = hc
1
, ui + hc
2
, vi,
где c
1
? R
m
 вектор с компонентами c
i
вектора c, соответ- ствующими i ? I
k
,
а c
2
? R
n?m
 вектор с компонентами c
i
вектора c, соответствующими i /? I
k
. Тогда в силу равенства

џ6. Симплекс-метод
121
(3) целевая функция может быть выражена только через v.
Тогда имеем
hc
1
, A
?1 1
(b ? A
2
v)i + hc
2
, vi =
= hc
2
? A
T
2
(A
?1 1
)
T
c
1
, vi + hc
1
, A
?1 1
bi,
где T  операция транспонирования.
Таким образом, исходная задача (1) теперь эквивалентна задаче
hc
2
? A
T
2
(A
?1 1
)
T
c
1
, vi ? min,
A
?1 1
(b ? A
2
v) ? 0,
v ? 0.
(4)
В задаче (4) вершине x
k
соответствует вектор {u
k
, v
k
}
, в котором
u
k
> 0
(5)
и
v
k
= 0.
(6)
При этом точка (6) является допустимой точкой для задачи
(4), а ограничение
A
?1 1
(b ? A
2
v) ? 0
(7)
удовлетворяется как строгое неравенство, поскольку
A
?1 1
(b ? A
2
v
k
) = A
?1 1
b = u
k
> 0.
Следовательно, ограничение (7) может быть отброшено как неактивное при анализе точки v
k
на оптимальность. Но в за- даче
hd, vi ? min,
v ? 0,
(8)
где
d = c
2
? A
T
2
(A
?1 1
)
T
c
1
,
минимум, очевидно, достигается тогда и только тогда, когда
d ? 0
, причем
hd, vi = 0.
Таким образом, если
d = c
2
? A
T
2
(A
?1 1
)
T
c
1
? 0,
то точка v является решением задачи (8) и, следовательно, за- дачи (4). Тогда точка x
k
является решением задачи (1). Если

122
Гл. 2. Математическое программирование же среди компонент вектора d имеются отрицательные (на- пример, d
j
), то точка v = 0 не является решением задачи (8),
поскольку увеличение v
j
влечет за собой уменьшение целевой функции в (8).
Рассмотрим случай, когда
d
j
< 0.
Пусть при этом e
j
 j-й орт в пространстве R
n?m
. Вычислим новый вектор v
k+1
по формуле
v
k+1
= v
k
+ ?
k
e
j
,
где ?
k
 некоторое действительное число, выбираемое из сле- дующих соображений.
С увеличением ?
k
целевая функция уменьшается. При этом, однако, может нарушиться ограничение
A
?1 1
(b ? A
2
v) ? 0,
которое при v = v
k
было неактивным. Поэтому ?
k
следует определять из условия
?
k
= max{? ? 0 : A
?1 1
(b ? ?A
2
e
j
) ? 0}.
Если окажется, что
?
k
= ?,
то, очевидно, задача не имеет решения, поскольку в этом слу- чае inf
x?Q
hc, xi = ??,
Если же
?
k
< ?,
то получаем новую точку
x
k+1
= {u
k+1
, v
k+1
},
где
u
k+1
= A
?1 1
(b ? ?
k
A
2
e
j
)
и
v
k+1
= v
k
+ ?
k
e
j
.
Вновь полученная точка x
k+1
является допустимой вер- шиной, поскольку она имеет m положительных компонент (j

џ6. Симплекс-метод
123
компонента из вектора v
k
стала положительной в то время как одна из компонент вектора u
k+1
обратилась в нуль). Поэтому в этой точке можно повторить всю процедуру заново. При этом поскольку
hc, x
k+1
i = hd, v
k+1
i = hd, v
k
i + ?
k
hd, e
j
i = hc, x
k
i + ?
k
d
j
,
где по построению ?
k
> 0
и d
j
< 0
, то
hc, x
k+1
i < hc, x
k
i.
Таким образом, симплекс-метод обладает свойством мо- нотонности значений целевой функции при переборе вершин.
Следовательно, возврат в какую-либо из ранее пройденных вершин здесь невозможен. Но так как число вершин конеч- но, симплекс-метод сходится за конечное число шагов.
Реализация симплекс-метода. Приведенное выше опи- сание симплекс-метода не претендует на полноту. Чтобы пе- рейти от этого описания к четкому алгоритму нужно, вообще говоря, уточнить ряд вопросов.
A) Прежде всего, рассмотрим вопрос о выборе начально- го приближения для симплекс-метода. Начальную точку x
0
,
являющуюся вершиной многогранного множества Q, можно найти с помощью следующего приема, называемого методом искусственного базиса.
Введем дополнительные переменные z = (z
1
, . . . , z
m
)
, иг- рающие роль невязок в ограничениях, и рассмотрим задачу их минимизации
m
X
i=1
z
i
? min
(9)
при ограничениях
ha
i
, xi + z
i
= b
i
,
i = 1, . . . , m
(10)
и
x ? 0,
z ? 0.
(11)
В этой задаче искомым является вектор {x, z} размерно- сти n+m, а точка {0, b} в пространстве R
n+m
является верши- ной. Последнее объясняется тем, что всегда можно принять
b ? 0,

124
Гл. 2. Математическое программирование чего можно добиться, изменив знак ограничения
ha
i
, xi = b
i
;
при этом будем считать, что среди компонент вектора b нет нулевых.
Таким образом, для отыскания решения задачи (9)(11)
можно применить симплекс-метод с начальным приближени- ем {0, b}. В результате получится либо точка {x
0
, 0}
, где x
0

вершина в исходной задаче (1), либо точка, удовлетворяющая условию
z 6= 0.
Замечание. Во многих практических ситуациях введе- ние описанного выше дополнительного этапа можно избежать.
Например, пусть исходная задача линейного программирова- ния имеет вид
hc, xi ? min,
Ax ? b,
x ? 0,
(12)
где b > 0. Переводя задачу (12) в каноническую форму, можем записать
hc, xi ? min,
Ax + z = b,
x ? 0,
z ? 0.
(13)
Тогда точка {0, b} является невырожденной вершиной в задаче
(13) и, таким образом, применять здесь метод искусственного базиса излишне.
B) Второй вопрос связан с численной реализацией симп- лекс-метода.
Вообще говоря, существует несколько способов хранения и преобразования используемых в симплекс-методе матриц и векторов. В основном численном варианте, где использует- ся метод обратной матрицы, вычисляется и хранится матри- ца A
?1 1
. Выражения же типа A
T
2
(A
?1 1
)
T
c
1
вычисляются пу- тем умножения этой матрицы на соответствующие вектора;
при вычислении обратной матрицы A
?1 1
здесь используется то обстоятельство, что на последовательных итерациях соот- ветствующие матрицы A
1
получаются заменой лишь одного

џ6. Симплекс-метод
125
столбца. Поэтому можно обращать эти матрицы рекурентно,
используя различные соотношения, хорошо известные специа- листам по численным методам линейного программирования.
При этом начальное приближение для A
?1 1
b
в методе искус- ственного базиса не требует вычисления обратной матрицы,
поскольку в этом случае A
1
 единичная матрица.
Приводить подробные формулы какой-либо реализации симплекс-метода представляется бессмысленным, поскольку в настоящее время соответсвующие программы, написанные профессионалами высшей квалификации, достигли совершен- ства с программистской и вычислительной точки зрения. Бо- лее того, эти программы сейчас стали общедоступными благо- даря компьютерной сети INTERNET. Принимая во внимание тот факт, что в современном мире задачи линейного програм- мирования приходится решать достаточно редко, можно сме- ло утверждать, что простому пользователю вряд ли придется когда-либо заниматься программной реализацией алгоритма симплекс-метода. Что же касается ситуации, когда решение задачи линейного программирования во что бы то ни стало нужно найти вручную, то в этом случае можно воспользо- ваться одним из многочисленных руководств, в том числе и специальных.
7
C) Существенные трудности при реализации симплекс- метода связаны с проблемой вырождения.
При описании метода выше делалось предположение о невырожденности всех вершин. Отказ от этого предположе- ния может привести к невозможности обращения матрицы
A
1
. Опасность подобной ситуации, главным образом, состо- ит в том, что при вычислениях некоторые компоненты точки
x
, характеризующей невырожденную вершину, могут оказать- ся достаточно близкими к нулю. На практике, к счастью, это случается довольно редко.
Замечание. Необходимо отметить, что еще недавно сим- плекс-метод часто рассматривали как универсальное средство,
позволяющее легко найти решение любой задачи линейного
7
См., например, [1, 9, 12, 27].

126
Гл. 2. Математическое программирование программирования. Этим и объясняется стремление во что бы то ни стало научиться (чаще научить) решать такие задачи вручную. В настоящее время (во многом в связи с упомянутой проблемой вырождения вершин) данная точка зрения, однако,
перестала быть общепринятой.

Глава 3
Основы оптимального управления
Настоящая глава посвящена изучению видимой части айс- берга: только так можно говорить о приведенных ниже эле- ментарных основах самого сложного и наиболее интенсивно развивиающегося раздела теории экстремальных задач  оп- тимального управления.
Формально общие математические основы оптимального управления заложены в середине прошлого века в трудах ака- демика Л.С. Понтрягина и его учеников (см. [18]). Известно,
что в этот период жизни Л.С. Понтрягин занимался только ма- тематическими задачами, имеющими реальное практическое значение. И, хотя, можно лишь догадываться какая из реаль- ных задач привела к принципу максимума, фактически чело- век начал решать задачи оптимального управления в незапа- мятные времена.
Открывает главу џ1, в котором рассматривается простей- шая задача вариационного исчисления. Данная задача имеет исключительно методическое значение, однако именно с нее начинаются многие современные курсы оптимального управ- ления. Объясняется это тем, что простым и естественным об- разом вводятся основные понятия и приемы, составляющие прообраз общего метода решения других уже реалистичных задач.
Одной из важнейших особенностей простейшей задачи ва- риационного исчисления является то, что здесь почти сразу приходиться говорить о существовании решения этой задачи.
Даная проблема в вариационном исчислении и теории опти- мального управления всегда стояла чрезвычайно остро и в на- ше время не потеряла своей актуальности.
127

128
Гл. 3. Основы оптимального упраления
Непосредственным продолжением џ1 стал џ2, посвящен- ный изучению вариационных задач с ограничениями. Приме- няемый здесь метод восходит еще к Лагранжу и хорошо изве- стен нам по главе 2: с помощью некоторых множителей, на- зываемых множителями Лагранжа, задача с ограничениями сводится к задаче без таковых  простейшей задаче вариаци- онного исчисления. При этом общая задача вариационного ис- числения остается здесь не рассмотренной, поскольку она свя- зывается в дальнейшем с задачей оптимального управления и обратно.
Изложению основ математической теории оптимального управления в посвящен џ3. Здесь рассмотрена задача опти- мального управления в форме Л.С. Понтрягина и ее важней- ших частный случай, известный как задача об оптимальных быстродействиях. Необходимое условие в этих задачах  зна- менитый принцип максимума Понтрягина остался в настоя- щей книге недоказанным. Причина для этого достаточно ува- жительная: приводить не совсем строгое доказательство авто- рам не хотелось, а более или менее простое и полностью кор- ректное доказательство (насколько нам известно) в настоящее время не найдено.
В џ4 рассмотрены две частные задачи о линейных опти- мальных быстродействиях. Задачи эти выбраны не случайно,
поскольку метод их решения весьма и весьма поучителен, по- сколку содержит много тонкостей, знание которых способству- ет выработке навыков обращения с более реалистичными зада- чами. Поэтому еще ни один учебник оптимального управления не прошел мимо них.
Задача об оптимальных быстродействиях является одной из первых из дошедших до нас вариационных задач: доста- точно вспомнить задачу о брахистохроне Иоганна Бернулли.
В наши дни актуальность этой задачи не снизилась. Более того, быстродействия в линейных системах оказались вполне доступными для подробного и продвинутого изучения и по- лученные здесь результаты в известной мере пригодны для практического использования. В џ5 достаточно полно изложе- на общая теория таких задач, включающая в частности про- стейшую теорему существования и единственности.

џ1. Вариационное исчисление
129
џ1. Простейшая задача вариационного исчисления
Как следует из названия, џ1 настоящей главы посвящена изучению простейшей задачи вариационного исчисления. Эта задача не является первой из известных вариационных задач:
уже упоминавшаяся задача Дидоны появилась гораздо рань- ше. Вместе с тем, эта задача действительно проста, довольно точно отражает принципы решения вариационных задач и со- держит в себе достаточно много тонкостей, знакомство с кото- рыми весьма полезно при изучении вариационного исчисления и оптимального управления.
Постановка задачи. Как вариационное исчисление, так и оптимальное управление оперируют в основном с функцио- налами, которым, вообще говоря, называется любое отбраже- ние J произвольного множества M на действительную ось R.
Так, если f  некоторая непрерывная числовая функция, то простейший пример функционала имеет вид
J(y) =
1
Z
0
f (x, y(x)) dx,
где y  любая функция, определенная и непрерывная на от- резке [0, 1].
Замечание. Иногда в определении функционала требу- ют, чтобы множество M обязательно было функциональным пространством. Последнее излишне, поскольку приводит к за- мене определения примером.
Простейшая задача вариационного исчисления заключа- ется в минимизации функционала
J(y) =
x
1
Z
x
0
f (x, y(x), y
0
(x)) dx
(1)
в классе C
1
(x
0
, x
1
)
функций, определенных и непрывно диф- ференцируемых на отрезке [x
0
, x
1
]
. При этом дополнително бу- дем считать, что
y(x
0
) = x
0
,
y(x
1
) = x
1
.
(2)

130
Гл. 3. Основы оптимального упраления
Таким образом, принципиальное отличие простейшей задачи вариационного исчисления от задачи на условный экстремум состоит в том, что минимум следует искать среди функций,
причем специально оговоренного класса.
Пример 1. Рассмотрим задачу о минимизации функцио- нала
J(y) =
x
1
Z
x
0
p
1 + y
02
dx.
(3)
Функция f здесь представляет собой длину кривой y, проходя- щей через точки (2), т.е. задача о минимизации функционала
(3) является задачей об определении кратчайшего расстояния между двумя точками на плоскости.
Пример 2. Рассмотрим задачу о минимизации функцио- нала
J(y) =
x
1
Z
x
0
p
1 + y
02
?
y
dx.
Данная задача является первой из дошедших до нас про- стейших задач вариационного исчисления. Она восходит еще к Иоганну Бернулли и называется задачей о брахистохроне.
Смысл ее состоит в следующем: какую форму должна иметь проволочка, чтобы кольцо соскальзывало по ней поддействи- ем только силы тяжести из одной заданной точки в другую за наименьшее время.
Уравнение Эйлера. Пусть y и Їy  две функции, опре- лененные на отрезке [x
0
, x
1
]
. Разность
?y = y(x) ? Ї
y(x)
называется вариацией. При этом говоря о вариации специ- ально оговаривают класс функций, в котором изменяется y.
В дальнейшем, пока особо не будет оговорено противное, бу- дут рассматриваться функции класса C
1
(x
0
, x
1
)
. Соответству- ющая этому классу функций вариация ?y называется слабой вариацией.

џ1. Вариационное исчисление
131
Если ?y  некоторая вариация, то вариацией функционала называется разность
?J = J(y + ?y) ? J(y).
Функцию y будем называть слабой минималью функцио- нала J, если для всех вариаций ?y, для которых величина max
x
0
?x?x
1
(|?y(x)| + |?y
0
(x)|)
достаточно мала, выполнено неравенство
J(y) ? J(y + ?y).
В этом случае будем говорить о слабом минимуме функцио- нала J.
Замечание. Легко видеть, что приведенное определения минимума функционала полностью аналогично определению минимумам функции, введенного в џ4. И в том, и в другой случае говориться о локальности минимума. Что касается до- бавления слова слабый в отношении минимума функционал,
то это обстоятельство связано с тем, что пока исследование ведется на слабых вариациях. При этом необходимо отметить,
что слабую вариацию легко перепутать с дамой, приятной во всех отношениях: все, казалось бы, прекрасно, однако слабый минимум может быть весьма далек от минимума вообще (см.
пример 5).
Переходя теперь к выводу необходимых условий слабого минимума в простейшей задаче вариационного исчисления,
обозначим через y некоторую минималь, а через ?y  соот- вествующую вариацию. Тогда имеем
?J =
x
1
Z
x
0
[f (x, y + ?y, y
0
+ ?y
0
) ? f (x, y, y
0
)] dx
(4)
Предположив, что функция f дифференцируема по y и y
0
,
можем записать
f (x, y + ?y, y
0
+ ?y
0
) ? f (x, y, y
0
) =
= f
0
y
?y + f
0
y
0
?y
0
+ o(
p
(?y)
2
+ (?y
0
)
2
).
(5)

132
Гл. 3. Основы оптимального упраления
Тогда, объединив равенства (4) и (5), с учетом того, что y 
минималь, имеем неравенство
x
1
Z
x
0
[f
0
y
?y + f
0
y
0
?y
0
] dx ? 0.
(6)
Предположив теперь, что функция f дважды дифференци- руема по совокупности переменных, проинтегрируем второе слагаемое в (6) по частям. Проделав это, с учетом условия (2)
окончательно получаем
x
1
Z
x
0
·
f
y
?
d
dx
f
y
0
ё
?y dx ? 0.
(7)
Поскольку неравенство (7) выполняется для всех вариа- ций ?y, для которых величина max
x
0
?x?x
1
|?y(x)|
достаточно мала, то рассуждая по аналогии с доказательством теоремы Ферма (см. џ4), имеем уравнение
d
dx
?f
?y
0
x
=
?f
?y
x
,
(8)
которому с необходимостью должна удовлетворять слабая ми- нималь.
Уравнение (8) называется уравнением Эйлера. Относи- тельно y  это уравнение второго порядка. Таким образом, за- дача отыскания функции, подозрительной на минималь, пред- ставляет собой двухточечную краевую задачу (8), (2).
Любое решение уравнения Эйлера называется экстрема- лью (если угодно, слабой экстремалью). При этом легко ви- деть, что экстремаль обращает в нуль вариацию ?J функцио- нала J(y) и обратно (см. упражнение 2).
Замечание. Сравнивая доказательство теоремы Ферма и вывод уравнения Эйлера несложно заметить, что идея до- казательства полностью совпадает с идеей вывода. Последнее весьма красноречиво говорит о целесообразности (и возмож- ности) единого подхода к экстремальным задачам.

џ1. Вариационное исчисление
133
Примеры. Не вдаваясь в детали существования миниму- ма в задачах о кратчайшем расстоянии и брахистохроне, най- дем экстремали в этих задачах.
Пример 3. Экстремали функционала (3) находятся со- всем тривиально.
В самом деле, уравнение Эйлера в данном случае имеет вид
d
dx
y
0
p
1 + y
02
= 0
или, что эквивалентно,
y
00
= 0.
Поэтому
y = C
1
x + C
2
,
что и следовало ожидать.
Пример 4. Обратившись теперь к задаче о брахистохроне,
прежде всего, перепишем уравнение Эйлера в следующем раз- вернутом виде:
?f
?y
?
?
2
f
?x?y
0
? y
0
?
2
f
?y?y
0
? y
00
?
2
f
?
2
y
0
= 0
или, что в данном случае эквивалентно,
?f
?y
? y
0
?
2
f
?y?y
0
? y
00
?
2
f
?
2
y
0
= 0.
(9)
Заметим теперь, что
d
dx
µ
f ? y
0
?f
?y
0

= y
0
?f
?y
? y
02
?
2
f
?y?y
0
? y
0
y
00
?
2
f
?
2
y
0
.
Поэтому, умножив уравнение (9) на y
0
, видим, что уравнение
Эйлера здесь приводит к уравнению
d
dx
µ
f ? y
0
?f
?y
0

= 0.
Таким образом, окончательно получаем, что
f ? y
0
?f
?y
0
= C.
(10)

134
Гл. 3. Основы оптимального упраления
Для удобства направим ось Ox плоскости R
2
как обычно, а ось Oy  вертикально вниз. Тогда в силу (10) уравнение Эйлера в задаче о брахистохроне приводит к уравнению p
1 + y
02
?
y
?
y
02
p
y(1 + y
02
)
= C
или, что эквивалентно,
1
p
y(1 + y
02
)
= C.
Поэтому
y(1 + y
02
) = C
1
.
(11)
Положим
y
0
= ctg t.
(12)
Тогда из (11) следует, что
y =
C
1 1 + ctg
2
t
= C
1
sin
2
t =
C
1 2
(1 ? cos 2t).
(13)
Действуя формально, запишем
dx =
dy
y
0
,
откуда в силу (12) и (13) имеем
dx =
2C
1
sin t cos t
ctg t
dt.
Поэтому
x =
C
1 2
(2t ? sin 2t) + C
2
.
(14)
Несложно заметить, что соотношения (13), (14) дают урав- нения семейства циклоид. Таким образом, экстремалями в за- даче о брахистохроне являются циклоиды.
Существование решений. Следуя [28], позволим себе привести небольшую математическую шутку.
Парадокс Перрона. Пусть N  наибольшее положитель- ное целое число. Тогда для N 6= 1 справедливо неравенство
N
2
> N
. Последнее, однако, противоречит определению числа
N
как наибольшего положительного целого. Другими слова- ми, N = 1.

џ1. Вариационное исчисление
135
Несколько ранее по этому поводу великий Кун-цзы заме- тил: Очень сложно искать черную кошку в темной комнате.
Особенно, если там ее нет. В главах 1 и 2 неоднократно гово- рилось о том, что прежде чем искать черную кошку, следует позаботиться о ее существовании (по крайней мере в темной комнате). В вариационном исчислении ситуация становиться еще более жесткой. В частности, экстремали могут не иметь к минимуму функционала никакого отношения.
Чтобы пояснить эту мысль, процетируем теперь А. Лебега
(см. [28]):
Все мои статьи [по этому предмету] связаны с одной школьной шуткой. В колледже Бове мы часто доказыва- ли, что в треугольнике одна сторона равна сумме двух дру- гих. Рассмотрим треугольник ABC (см. рис. 1). Если точки
A
1
, B
1
, C
1
 середины сторон этого треугольника, то
BA + AC = BC
1
+ C
1
A
1
+ A
1
B
1
+ B
1
C.
С каждым из треугольников BC
1
A
1
, A
1
B
1
C
поступим так же,
как с труегольником ABC. Мы получим ломанную линию, об- разованную восемью отрезками и равную BA + AC. Продол- жая этот процесс, мы получим последовательность ломаных линий, которые все меньше и меньше удаляются от стороны
BC
и имет длину, равную сумме двух сторон первоначально взятого треугольника. Ученики колледжа Бове заключали от- сюда, что отрезок BC, являющийся геометрическим пределом ломаных линий, имеет длину, равную сумме длин двух других сторон BA + AC.
Данная история непосредственно говорит о том, что дли- на не является непрерывной функцией. Поэтому уже сейчас довольно наивно было бы утверждать, что уравнение Эйле- ра является типическим приемом решения подобных задач.
Но гораздо более важным представляется то обстоятельство,
что на горизонте появляется бесконечно мелкий зигзаг, значе- ние которого для вариационного исчисления и оптимального управления трудно переоценить.

136
Гл. 3. Основы оптимального упраления
Ў
Ў
Ў
Ў
Ў
Ў
Ў
Ў
Ў
Ў
Ў
Ў
@
@
@
@
@
@
@
@
@
@
@
@
@
@
@
@
@
@
Ў
Ў
Ў
Ў
Ў
Ў
@
@
@
Ў
Ў
Ў
@
@
@
Ў
Ў
Ў
@
@ ЎЎ
@
@ ЎЎ
@
@ ЎЎ
@
@ ЎЎ
B
B
1
A
1
A
C
C
1
Рис. 1
Пример 5. Следуя [28], рассмотрим задачу о минимиза- ции функционала
J(y) =
1
Z
0
(1 + y
2
)(1 + (y
02
? 1)
2
) dx
(15)
при ограничениях
y(0) = y(1) = 0.
(16)
Вдоль оси Ox разобьем отрезок [0, 1] на четное число от- резков длины ? и построим на [0, 1] ломаную, поочередно при- няв либо y
0
= 1
, либо y
0
= ?1
(см. рис. 2). Соответствующая функция y принимает значения на отрезке [0, ?]. Поэтому зна- чение интеграла (15) не превосходит величины 1 + ?
2
С другой стороны, для любой кусочно-дифференцируемой на отрезке [0, 1] функции y, удовлетворяющей уловиям (16),
для всех значений 0 ? x ? 1 справедливо неравенство
(1 + y
2
(x))(1 + (y
02
(x) ? 1)
2
) ? 1,
где равенство имеет место тогда и только тогда, когда одно- временно
y(x) = 0
(17)

џ1. Вариационное исчисление
137
-
6
Ў
Ў @
@ ЎЎ @
@ ЎЎ @
@ ЎЎ @
@
O
1
y
x
Рис. 2
и
y
0
(x) = ±1.
(18)
Отсюда следует, что точная нижняя грань интеграла (15) рав- на единице и что достигается она на ломаной y, удовлетворя- ющей условиям (17) и (18), при ? ? 0.
Описанная в примере 5 кривая y собственно и называет- ся бесконечно мелким зигзагом. Очевидно, что даже в про- стейшей задаче вариационного исчисления класс допустимых функций должен содержать такой зигзаг. Но как быть тогда с уравнением Эйлера?
Упражнения.
(1) Докажите лемму Дюбуа  Раймона:
Если для каждой непрерывной функции ?
x
1
Z
x
0
?(x)?(x) dx = 0,
где ?  некоторая фукнция, определенная и непрерывная на отрезке [x
0
, x
1
]
, то
?(x) ? 0
на этом отрезке.
(2) Покажите, что функция y является экстремалью тогда и только тогда, когда она обращает в нуль вариацию ?J
функционала J(y).
Указание: Используйте лемму Дюбуа  Раймона.

138
Гл. 3. Основы оптимального упраления
(3) Пусть y = (y
1
, . . . , y
n
)
 векторная функция скалярного перменного x. Покажите, что в этом случае уравнения
Эйлера для задачи (1), (2) представляют собой систему
d
dx
?f
?y
i
x
0
=
?f
?y
i
x
,
i = 1, . . . , n,
называемую системой Эйлера.
џ2. Вариационные задачи с ограничениями
Как уже отмечалось, Дидона умела решать задачу более сложную, чем простейшая задача вариационного исчисления.
Более того, считается, что задача, которую на самом деле ре- шала Дидона, была еще сложней (чем упомянутая в преди- словии), поскольку тирийцы столько купили земли, ... сколь- ко воловьей шкурой могли окружить на прибрежьи исходя из того, что построенный на этой земле Карфаген должен лежать на берегу моря.
Для решения вариационной задачи, содержащей в себе за- дачу Дидоны, Лагранж предложил свой знаменитый метод множителей, описание которого приводится ниже. Кроме того,
ниже оговариваются детали применения метода множителей
Лагранжа, аналогичные тем, что и в главе 2, а также другие,
более тонкие.
Задача Лагранжа. Поскольку задача Лагранжа уже со- всем близка к современной задаче оптимального управления,
будем в дальнейшем использовать соответствующие обозначе- ния.
Пусть t  независимое действительное переменное, име- ющее, вообще говоря, физический смысл времени, и пусть
x(t) = (x
1
(t), . . . , x
n
(t))
 n-мерная действительная функция t.
В процессе своего движения точка с координатами (x
1
, . . . , x
n
)
описывает в пространстве R
n
некоторую кривую, называемую траекторией. Скорость движения точки будем обозначать че- рез ?x, понимая, естественно, что
?x =
dx
dt
.

џ2. Задачи с ограничениями
139
В этом случае пространство R
n
будем называеть фазовым про- странством, а координаты (x
1
, . . . , x
n
)
 фазовыми координа- тами.
В этих обозначениях задача Лагранжа представляет собой вариационную задачу о минимизации функционала
J(x) =
t
1
Z
t
0
f (t, x, ?x) dt
(1)
при ограничениях
g(t, x, ?x) = 0
(2)
и
t
1
Z
t
0
h(t, x, ?x) dt = ?,
(3)
где g = (g
1
, . . . , g
m
)
и h = (h
1
, . . . , h
r
)
 соответствующие век- торные функции, а ?  заданный вектор.
Если ограничение (2) отсутствует, то задача Лагранжа превращается в изопериметрическую задачу, являющуюся тривиальным обобщением задачи Дидоны. В любом случае ре- шение задачи (1)(3) будем искать в классе C
1
(t
0
, t
1
)
вектор- ных функций, определенных и непрывно дифференцируемых на отрезке [t
0
, t
1
]
. При этом (как и ранее) дополнительно будем считать, что
x(t
0
) = x
0
,
x(t
1
) = x
1
.
(4)
Метод множителей Лагранжа. Для решения задачи
(1)(3) Лагранж собственно и ввел свой метод множителей, ко- торый, как он считал, может свести задачу с ограничениями к задаче без таковых. Трудно сказать, о чем думал Лагранж, но рассуждения здесь ничем не отличаются от соответствующих рассуждений в задаче на условный экстремум.
Действуя как и в џ1 гл. 2 введем в рассмотрение новую функцию
I(y) = f (t, x, ?x) + h?(t), g(t, x, ?x)i + h?, h(t, x, ?x) ? ?
?(t)i,
в которой ? = (?
1
, . . . , ?
m
)
и ? = (?
1
, . . . , ?
r
)
 действительные векторные функции времени t, а ? = (?
1
, . . . , ?
r
)
 r-мерный

140
Гл. 3. Основы оптимального упраления действительный вектор. Определенную таким образом функ- цию L будем называть функцией Лагранжа. При этом вектора
?
и ? здесь играют роль множителей Лагранжа, а функция ?
удовлетворяет условию
?(t
0
) = 0,
?(t
1
) = ?.
Для дальнейшего удобства введем в рассмотрение новую функцию Лагранжа
L(t, x, ?x, ?, ?, ?) =
= f (t, x, ?x) + h?(t), g(t, x, ?x)i + h?(t), h(t, x, ?x) ? ?
?(t)i
в фазовом пространстве, расширенном добавлением соответ- ствующих новых переменных, с дополнительным ограничени- ем
?? = 0
(5)
и рассмотрим простейшую задачу вариационного исчисления,
заключающуюся в минимизации функционала
t
1
Z
t
0
L(t, x, ?x, ?, ?, ?) dt.
Есди в последней задаче не принимать во внимание огра- ничения, то, как заметил Лагранж, уравнения Эйлера для этой задачи дадут систему
d
dt
?L
? ?x
i
=
?L
?x
i
,
i = 1, . . . , n,
d
dt
?L
? ??
i
=
?L
??
i
,
i = 1, . . . , m,
d
dt
?L
? ??
i
=
?L
??
i
,
i = 1, . . . , r,
d
dt
?L
? ?
?
i
=
?L
??
i
,
i = 1, . . . , r,
называемую системой Эйлера  Лагранжа (см. џ1, упражне- ние 3). При этом в системе Эйлера  Лагранжа последние три уравнения приводят к уравнениям (2), (5) и
?
? = h(t, x, ?x).

џ2. Задачи с ограничениями
141
Замечание. Если вывод уравнения Эйлера аналогичен
(по крайней мере идейно) доказательству теоремы Ферма, то внешний вид системы Эйлера  Лагранжа весьма напоминает один из вариантов записи необходимого условия в задаче на условный экстремум в случае, когда в точке минимума выпол- нено условие регулярности.
Пример 6. Помня о парадоксе Перрона и черной кошке,
почему-то убежавшей из темной комнаты, рассмотрим задачу о минимизации функционала (1) при ограничениях (2) и (4) в следующих предположениях (см. [28]).
Пусть размерность n фазового пространства R
n
равна двум. В пространстве R
3
переменных (t, x
1
, x
2
)
ось Ox
2
рас- положим вертикально, а оси Ot и Ox
1
 горизонтально. Возь- мем произвольную точку P = (t
0
, x
1 0
, x
2 0
)
пространства R
3
и рассмотрим кривую x(t) = (x
1
(t), x
2
(t))
, проходящую че- рез P , имеющую кусочно-непрерывные производные ?x(t) =
( ?x
1
(t), ?x
2
(t))
, удовлетворяющие условию
?x
2
=
p
1 + ( ?x
1
)
2
.
(6)
Для фиксированной точки P любую такую кривую мож- но определить, если известна ее проекция на плоскость (t, x
1
)
При этом в силу (6) несложно заметить, что разность коори- нат x
2
в концах этой кривой совпадает с длиной ее проекции
(см. пример 1). Следовательно, если принять, что проекция является отрезком, то через второй конец Q = (t
1
, x
1 1
, x
2 1
)
этой кривой, удовлетворяющей условию (6), нельзя провести ника- кую другую кривую, удовлетворяющую (6).
Положим
g(t, x
1
, x
2
, ?x
1
, ?x
2
) = ?x
2
?
p
1 + ( ?x
1
)
2
.
Тогда для произвольной функции f в функционале (1) функ- цию Лагранжа рассматриваемой задачи можно записать в сле- дующем виде:
L(t, x
1
, x
2
, ?x
1
, ?x
2
, ?) =
(7)
= f (t, x
1
, x
2
, ?x
1
, ?x
2
) + ?(t)
і
?x
2
?
p
1 + ( ?x
1
)
2
ґ
.
Как было отмечено выше, в рассматриваемой задаче суще- ствует только одна кривая, удовлетворяющая условию (2) и

142
Гл. 3. Основы оптимального упраления соединяющая точки (4). В силу едиственности этой кривой именно на ней и только не ней и должен достичаться минимум.
Поэтому можно было бы утверждать, что для произвольной функции f с функцией L, заданой равенством (7), с необхоли- мостью выполняются уравнения Эйлера  Лагранжа. Послед- нее, однако, представляется более, чем сомнительным.
В самом деле, заметим, что
?g
?x
1
=
?g
?x
2
= 0,
?g
? ?x
1
= ?
?x
1
p
1 + ( ?x
1
)
2
и
?g
? ?x
2
= 1.
Поэтому кривая x(t) = (x
1
(t), x
2
(t))
, проекция которой на плоскость (t, x
1
)
является отрезком, удовлетворяет системе
Эйлера
d
dt
?g
? ?x
i
=
?g
?x
i
,
i = 1, 2,
для функции g, но не для функции L.
Таким образом, в рассматриваемом примере функция f
оказывается не у дел, что весьма красноречиво говорит о кор- ректности формального использования метода множителей.
Поняв теперь (казалось бы), что нужно сделать прежде,
чем искать черную кошку в темной комнате, запишем моди- фицированную функцию Лагранжа ?L в следующем виде
?
L(t, x, ?x, ?, ?, ?) =
= ?
0
f (t, x, ?x) + h?(t), g(t, x, ?x)i + h?(t), h(t, x, ?x) ? ?
?(t)i,
где ?
0
 уже знакомое нам по главе 2 действительное число,
принципиально такое, что либо ?
0
= 0
, либо ?
0
= 1
. При этом в силу уравнения (5) и четвертого из уравнений системы Эйлера
 Лагранжа можем ввести в рассмотрение более естественную модификацию ЇL функции Лагранжа
Ї
L(t, x, ?x, ?, ?, ?) =
(8)
= ?
0
f (t, x, ?x) + h?(t), g(t, x, ?x)i + h?, h(t, x, ?x)i,

џ2. Задачи с ограничениями
143
где ?
0
имеет прежний смысл, а ?  некоторый вектор в про- странстве R
r
Определенную таким способом функцию ЇL будем назы- вать расширенной функцией Лагранжа. Теперь можно было бы сфофмулировать необходимые условие для задачи Лагран- жа, использующие как модифицированную, так и расширен- ную функции Лагранжа и аналогичные теореме 1 главы 2.
Этого, однако, здесь делать не будем потому, что (к сожале- нию) не все еще ясно с черной кошкой.
Общая задача вариационного исчисления. Как уже фактически отмечалось ранее, ограничение (3) в задаче Ла- гранжа не имеет самостоятельного значения, поскольку оно эквивалентно ограничениям
?
? = h(t, x, ?x)
и
?(t
0
) = 0,
?(t
1
) = ?.
Поэтому естественым обобщением задачи Лагранжа мож- но считать задачу о минимизации функционала
J(x) =
t
1
Z
t
0
f (t, x, ?x) dt
(9)
при ограничениях
g(t, x, ?x) = 0
(10)
и
h(t, x, ?x) ? 0,
(11)
где g = (g
1
, . . . , g
m
)
и h = (h
1
, . . . , h
r
)
 соответствующие век- торные функции. Решение этой задачи будем искать в клас- се C
1
(t
0
, t
1
)
кусочно-дифференцируемых векторных функций,
определенных отрезке [t
0
, t
1
]
. При этом дополнительное усло- вие
x(t
0
) = x
0
,
x(t
1
) = x
1
(12)
можем опустить, включив его (если это необходимо) в ограни- чение (10).
Сформулированную таким образом задачу будем назы- вать общей задачей вариационного исчисления. По сравнению

144
Гл. 3. Основы оптимального упраления с задачей Лагранжа эта задача имеет два принципиальных отличия:
(1) Имеется ограничение (11).
(2) Класс функций C
1
(t
0
, t
1
)
заменен классом C
1
(t
0
, t
1
)
Первое из этих отличий определяет собственно рассмат- риваемую задау. При этом оказывается, что второе отличие непосредственно связано с первым.
В самом деле, как уже отмечалось ранее (см. пример 5),
минимум функционала даже в простейшей задаче вариацион- ного исчисления совсем не обязан достигаться на слабых вари- ациях. В этом смысле второе отличие означает естественный отказ от обязательного использования слабых вариаций. Го- раздо более существенным представляется то обстоятельство,
что наличие ограничения (11) в задаче (9)(12) фактически требует отказа от слабых вариаций. Именно, если функция x,
минимизирующая функционал (9) при каком-либо значении
t
0
? ? ? t
1
удовлетворяет по крайней мере одному из условий
h
i
(?, x(? ), ?x(? ) = 0,
i = 1, . . . , n,
то использование слабых вариаций здесь становиться невоз- можным.
Рассмотреть задачу (9)(12) на всем множестве возмож- ных вариаций в настоящее время, насколько нам известно,
неудалось. Однако уже к середине прошлого века была описа- на некоторая вариация, позволяющая свободно оперировать с ограничениями вида (11) и названная впоследствии вариацией
Мак-Шейна.
Построение вариации Мак-Шейна опишем на следующем тривиальном примере.
Пример 7. Рассмотрим задачу о минимизации функцио- нала (9) при ограничениях
x
0
? x ? x
1
и (12).
Пусть x(t)  некоторая кривая и пусть ?x(t)  вариация,
определяемая равенством
?x(t) = x(t) ? Ї
x(t),

џ2. Задачи с ограничениями
145 6
- s
s
t
0
t
1
t
x
0
x
1
x
x(t)
Ї
x(t)
Рис. 3
в котором Їx(t)  кривая, полученная из x(t) протыканием
последней иголкой до достижения ею ограничения (см. рис.
3). Такая вариация и называется вариацией Мак-Шейна. При этом о величине малости вариации Мак-Шейна судят по ма- лости интеграла
t
1
Z
t
0
|?x(t)| dt.
В общем случае вариация Мак-Шейна получается имен- но протыканием абсолютно непрерывной функции иголками,
причем обязательно до ограничения. Поэтому эту вариацию иногда называют также игольчатой вариацией.
Формулировка необходимого условия минимума в задаче
(9)(12) здесь опускается, поскольку ее всегда можно свести к задаче оптимального управления, изучению которой посвяща- ется оставшаяся часть главы 3.
Упражнения.
(1) Выведите аналог системы Эйлера  Лагранжа для задачи
(1)(4), взятой с расширенной функцией Лагранжа (8).

146
Гл. 3. Основы оптимального упраления
(2) Решите задачу Дидоны в предположении, что:
(a) Карфаген предполагается построить в пустыне;
(b) Карфаген предполагается построить на берегу мо- ря (уравнение линии берега считается известным, а усло- вие (4)  заданным).
Указание: Используйте построения примера 4.
(3) Рассмотрим задачу о минимизации функционала (1) при ограничениях
g(t, x) = 0
(13)
и (4). Докажите следующую теорему о методе множите- лей Лагранжа:
Пусть x
?
(t)
минималь в задаче (1), (13), (4) и пусть вектора
?g
i
(t, x
?
(t)),
i = 1, . . . , m
линейно независимы для всех значений t ? [t
0
.t
1
]
. Тогда
x
?
(t)
удовлетворяет системе Эйлера  Лагранжа
d
dt
?L
? ?x
i
=
?L
?x
i
,
i = 1, . . . , n,
d
dt
?L
? ??
i
=
?L
??
i
,
i = 1, . . . , m,
где
L(t, x, ?x, ?) = f (t, x, ?x) + h?(t), g(t, x)i.
Указание: Используйте теорему о неявной функции.
(4) Докажите теоремы 2 и 4 главы 2 с использованием теоре- мы о неявной функции.
џ3. Принцип максимума Понтрягина
Задача оптимального управления представляет собой со- временный вариант общей задачи вариационного исчисления.
Изначально эта задача возникла из потребностей инженеров и военных и только потом, когда уже была заложены основы математической теории оптимального управления, было уста- новлено, что это задачи именно вариационного исчисления.
В основе теории оптимального управления лежит знаме- нитый принцип максимума, высказанный в середине прошло- го века академиком Л.С. Понтрягиным в качестве гипотезы.
Ниже в џ3 излагается элементарное введение в принцип мак- симума Понтрягина.

џ3. Принцип максимума Понтрягина
147
Постановка задачи. Рассмотрим динамическую систе- му S, состояние которой в любой момент времени t характери- зуется точкой x(t) фазового пространства R
n
. Будем считать,
что эволюция состояний системы S происходит во времени под действием управлений u(t), прилагаемых к S в момент време- ни t. При этом для простоты будем считать, что пространтсво управлений представляет собой пространство R
m
Предположим, что эволюция состояний системы S описы- вается нормальной системой обыкновенных дифференциаль- ных уравнений, векторная запись которой имеет вид
?x = f (t, x, u),
(1)
где f = (f
1
, . . . , f
n
)
 некоторая векторная функция. Задача управления системой S заключается в минимизации функци- онала
J(u) =
t
1
Z
t
0
f
0
(t, x, u) dt,
(2)
в котором f
0
 заданная числовая функция.
Предположим теперь, что все функции f
0
, f
1
, . . . , f
n
опре- делены и непрерывны по совокупности переменных вместе со своими частными производными
?f
i
?t
,
i = 0, 1, . . . , n
и
?f
i
?x
j
,
i = 0, 1, . . . , n,
j = 1, . . . , n.
При этом считается, что функция управления u принимает значения в некотором подмножестве U пространства R
m
В таких условиях формулированную выше задачу будем называть задачей оптимального управления в форме Л.С.
Понтрягина, а множество U  допустимым множеством. На практике множество U чаще всего бывает компактным множе- ством, например, m-мерным кубом; объясняется это тем, что физически обычно U  шкала управления на пульте какого- либо прибора.

148
Гл. 3. Основы оптимального упраления
Принцип максимума Понтрягина. Прежде всего, еще раз коротко обсудим вопрос о пребывании черной кошки в тем- ной комнате.
Пусть U(t
0
, t
1
)
 множество кусочно-непрерывных функ- ций, определенных на отрезке [t
0
, t
1
]
и принимающих зна- чения в множестве U. Тогда будем говорить, что U(t
0
, t
1
)

множество допустимых управлений, если каждой функции
u ? U(t
0
, t
1
)
соотвествует единственное решение системы (1),
принадлежащее к классу C
1
(t
0
, t
1
)
и удовлетворяющее некото- рому начальному условияю
x(t
0
) = x
0
.
Определенную таким образом функцию u будем называть функцией управления, а соотвествующую ей кривую x  тра- екторией.
Очевидно, что говорить о существовании решений x ?
C
1
(t
0
, t
1
)
задачи (1), (2) можно говорить только в том слу- чае, когда множество U(t
0
, t
1
)
непусто, что и предполагается.
Этого, однако, недостаточно.
Функция u
?
класса U(t
0
, t
1
)
называется оптимальным управлением, если для любой другой функции u ? U(t
0
, t
1
)
выполнено неравенство
J(u
?
) ? J(u).
При этом траекторию x
?
, соответсвующую оптимальному уп- равлению u
?
, будем называть оптимальной траекторией.
Легко видеть, что данное определение говорит о глобаль- ном минимуме функционала (2), что говорит о еще одном принципиальном отличии задачи оптимального управления от задачи Лагранжа.
Если множество U(t
0
, t
1
)
непусто, оно, очевидно, совсем не обязано содержать оптимальное управление u
?
. Чтобы га- рантировать это, нужно сформулировать для рассмативаемой задачи теорему, аналогичную теореме 7 главы 1. Последнее,
однако, далеко выходит за рамки вводного курса. Поэтому в дальнейшем будем считать выполненным некоторое условие существования u
?

џ3. Принцип максимума Понтрягина
149
Наряду с фазовым вектором x введем вектор канониче- ских переменных ? = (?
1
, . . . , ?
n
)
, сопряженных к x. Для это- го положим
H(t, x, ?
0
, ?, u) =
n
X
i=0
?
i
f
i
(t, x, u),
(3)
где ?
0
 некоторое действительное число, а ?
1
, . . . , ?
n
(как функции времени t) удовлетворяют сопряженной системе
?
?
i
= ?
?H
?x
i
,
i = 1, . . . , n.
Определенная таким способом функция H называется уравля- емой функцией Гамильтона. При этом функцией Гамильтона называется функция H, удовлетворяющая условию
H(t, x, ?
0
, ?) = max
u?U
H(t, x, ?
0
, ?, u),
где по предположению максимум достигается в некоторой точ- ке u
?
допустимого множества U.
В силу равенства (3) несложно заметить, что функции x и
?
удовлетворяют каноноческой или гамильтоновой системе
?x
i
=
?H
??
i
,
?
?
i
= ?
?H
?x
i
,
i = 1, . . . , n.
(4)
Тогда имеет место следующая
Теорема 1 (принцип максимума Понтрягина). Если u
?

оптимальное управление в задаче (1), (2) и
x
?
(t) = (x
?1
(t), . . . , x
?n
(t))
 соответствующая траектория, то найдется такое дей- ствительное число ?
?
0
? 0
и такая векторная функция
?
?
(t) = (?
?
1
(t), . . . , ?
?
n
(t)),
что:
(1) Для всех значений t
0
? t ? t
1
все величины ?
?
0
и
?
?
1
(t), . . . , ?
?
n
(t)
не равны нулю одновременно.
(2) Для всех значений t
0
? t ? t
1
H(t, x
?
(t), ?
?
0
, ?
?
(t), u
?
(t)) = H(t, x
?
(t), ?
?
0
, ?
?
(t)).

150
Гл. 3. Основы оптимального упраления
(3) Функции x
?
и ?
?
удовлетворяют канонической си- стеме (4).
(4) На концах траектории x
?
выполнено условие транс- версальности "
n
X
i=1
?
?
i
?x
?i
? H?t
#
t
1
t
0
= 0.
Доказательство теоремы 1 совсем нетривиально и, потому,
здесь опускается (см., например, [18]). Отметим только, что в любом случае оно (доказательство) осуществляется с исполь- зованием вариаций Мак-Шейна. Отметим также следующие важнейшие обстоятельства.
A) В условиях теоремы 1 величина ?
?
0
не определена и,
если принципиально нельзя принять
?
?
0
= ?1,
то
?
?
0
= 0.
B) Если концы P = (t
0
, x
0
)
и Q = (t
1
, x
1
)
траектории x
?
закреплены, то условие трансверсальности заменяется услови- ями
x
?
(t
0
) = x
0
и
x
?
(t
1
) = x
1
.
C) Если точки x
0
и x
1
закреплены, а время перехода из конца P в конец Q свободно, то условие трансверсальности принимает вид
[H?t]
t
1
t
0
= 0.
В частности, если конец P закреплен, а конец Q  нет, то
H(t
1
, x
?
(t
1
), ?
?
0
, ?
?
(t
1
)) = 0.
D) Если конец P закреплен, а в конце Q время t
1
свобод- но и точка x
1
лежит на гиперповерхности M, имеющей в x
1
касательную гиперплоскость T
x
1
M
, то
H(t
1
, x
?
(t
1
), ?
?
0
, ?
?
(t
1
)) = 0,

џ3. Принцип максимума Понтрягина
151
а вектор ?
?
(t
1
)
ортогонален к T
x
1
M
E) Если конец P закреплен, а в конце Q точка x
1
свободна и время t
1
закреплено, то
?
?
(t
1
)) = 0.
Пример 8. Рассмотрим задачу о минимизации функцио- нала
J(u) =
t
1
Z
t
0
f
0
(t, x
1
, x
2
, u) dt
(5)
при условии, что эволюция состояний системы S характеризу- ется уравнениями
?x
1
= u
(6)
и
?x
2
=
p
1 + (u)
2
.
(7)
Предположим, что концы P и Q в задаче (5)(7) закреп- лены. Тогда, как легко видеть, эта задача представляет собой частный случай задачи, описанной ранее в примере 6. Поэтому здесь, вообще говоря,
?
?
0
= 0.
В самом деле, управляемая функция Гамильтона в задаче
(5)(7) имеет вид
H(t, x
1
, x
2
, ?
0
, ?
1
, ?
2
, u) =
= ?
0
f
0
(t, x
1
, x
2
, u) + ?
1
u + ?
2
p
1 + (u)
2
,
где канонические переменные ?
1
и ?
2
удовлетворяют уравне- ниям
?
?
1
= ??
0
?f
0
?x
1
(8)
и
?
?
2
= ??
0
?f
0
?x
2
.
(9)
Более того, для всех значений t
0
? t ? t
1
, x
1
, x
2
, ?
1
и ?
2
опти- мальное управление u
?
должно удовлетворять условию
?H
?u
= 0

152
Гл. 3. Основы оптимального упраления в развернутом виде имеющему вид
?
0
?f
0
?u
+ ?
1
+ ?
2
u
p
1 + (u)
2
= 0.
(10)
Согласно примеру 6 при закрепленных концах P и Q су- ществует единственная кусочно-непрерывная функция u, для которой кривая x(t) = (x
1
(t), x
2
(t))
является соответствую- щим решением системы (6), (7). Поэтому система (8), (9) так- же имеет единственное решение ?(t) = (?
1
(t), ?
2
(t))
, соответ- ствующее всем возможным u(t) и x(t), переводящим систему из точки P в точку Q. Поэтому из условия (10) следует, что для всех значений t
0
? t ? t
1
?
0
?f
0
?u
= ?(t),
(11)
где ?  фиксированная функция, определенная и непрерывная на отрезке [t
0
, t
1
]
Таким образом, окончательно получаем, что при всех зна- чениях t
0
? t ? t
1
равенство (11) выполняется с произвольной функцией f
0
и фиксированной функцией ?. Поэтому остается принять
?
0
= 0.
Замечание. Несложный анализ примера 8 показывает,
что замена
?x = u
всегда позволяет свести общую задачу вариационного исчисле- ния к некоторой задаче оптимального управления. Эта задача
(в отличие от задачи (1), (2)), вообще говоря, может содер- жать дополнительные ограничения на фазовые координаты и управления. Подобные задачи, называемые задачами опти- мального управления со смешанными ограничениями, чрез- вычайно сложны и, потому, здесь только упоминаются (см.,
например, [7]).
Задача о оптимальном быстродействии. Рассмотрим частный случай задачи оптимального управления, в которой проблема выбора ?
?
0
отсутствует. Для этого, прежде всего,
предположим, что все функции f
0
и f явно не зависят от t

џ3. Принцип максимума Понтрягина
153
и будем называть соответствующую задачу (1), (2) автоном- ной.
Одна из основных особенностей автономных задач состоит в том, что в случае, когда левый конец P закреплен, а время работы системы свободно
H(x
?
(t), ?
?
0
, ?
?
(t)) ? 0.
(12)
Это следует из того, что в рассматриваемом случае
H(x
?
(t
1
), ?
?
0
, ?
?
(t
1
)) = 0
и того факта, что здесь при доказательстве принципа макси- мума неизбежно появляется тождество
H(x
?
(t), ?
?
0
, ?
?
(t)) ? const
(см., например, [18]).
Замечание. Принятое выше требование автономности не накладывает на нас каких-либо существенных ограничений,
поскольку введение нового пременного
?x
n+1
= 1,
x
n+1
(0) = t
0
всегда приводит неавтономную задачу к автономной. Более то- го, большинство встречающихся на практике задач оптималь- ного управления являются автономными.
Предположим теперь, что в автономной задаче с закреп- ленным левым концом и свободным временем перехода
f
0
(x(t), u(t)) ? 1.
Любую такую задачу называют задачей об оптимальном бы- стродействии. Смысл такого названтя вполне понятен, по- скольку в этом случае фунцкионал (2) представляет собой вре- мя перехода из точки P в точку Q, а простейшим (и древней- шим) примером такой задачи является уже упоминавшаяся ранее задача о брахистохроне.
Согласно принципу максимума Понтрягина в этой задаче функция Гамильтона H удовлетворяет тождеству (12), а вели- чины ?
?
0
, ?
?
1
(t), . . . , ?
?
n
(t)
не обращаются в нуль одновременно.
Поэтому для всех значений t
0
? t ? t
1
|?
?
(t)| 6= 0,
(13)

154
Гл. 3. Основы оптимального упраления так как в противном случае наряду с равенством
|?
?
(t)| = 0
выполняется также равенство
?
?
0
= 0.
Поэтому удалим из задачи ?
0
(и, соответственно, ?
?
0
), положив
?
H(x, ?, u) = H(x, ?
0
, ?, u) ? ?
0
и
?
H(x, ?) = H(x, ?
0
, ?) ? ?
0
.
Тогда в качестве тривиального следствия теоремы 1 имеет ме- сто следующая
Теорема 2. Если u
?
 оптимальное управление в задаче быстродействии и
x
?
(t) = (x
?1
(t), . . . , x
?n
(t))
 соответствующая траектория, то найдется такая век- торная функция
?
?
(t) = (?
?
1
(t), . . . , ?
?
n
(t)),
что:
(1) Для всех значений t
0
? t ? t
1
выполнено условие
(13).
(2) Для всех значений t
0
? t ? t
1
имеет место равен- ство
?
H(x
?
(t), ?
?
(t), u
?
(t)) = ?
H(x
?
(t), ?
?
(t)).

1   ...   5   6   7   8   9   10   11   12   13


написать администратору сайта