Литература:
3. Хачиян Л. Г. Сложность задач линейного программирования. М.: Знание, 1987, N 10.
§ 5. Понятие о сложности задачи |
линейного программирования (ЛП) |
Определение основной задачи ЛП (озЛП). Принцип граничных решений и
геометрическое описание симплекс-метода. Алгебраическая и битовая
сложность методов ЛП. Результаты по сложности задач, близких к ЛП.
Теорема о границах решений задач ЛП с целыми коэффициентами. Теорема
о мере несовместности систем линейных неравенств с целыми коэффициентами.
1. Согласно [3] линейное программирование - это раздел прикладной
математики, изучающий теорию, приложения и методы решения конечных систем
линейных неравенств с конечным числом вещественных неизвестных
x1,ј,xn:
| (1) |
| (2) |
| (3) |
|
УПРАЖНЕНИЕ 5. Представить каноническую задачу ЛП в форме озЛП.
Несмотря на то, что формально задачи ЛП не являются дискретными (x О Rn), их решение нетрудно свести к перебору конечного числа угловых точек (вершин
полиэдра (1), задающего ограничения) на основании принципа граничных
решений:
если задача (2) имеет решение, то найдется такая подматрица AI
матрицы A, что любое решение системы уравнений AI x = bI, т.е.
{ai1x1 + ai2x2 + ј+ ainxn = bi| i О I}, |
реализует максимум в (2).
Отметим, что для невырожденных AI решение соответствующей системы уравнений
AI x = bI, удовлетворяющее ограничениям (1), является угловой точкой (1). Из
принципа граничных решений следует, что если угловая точка (1) существует, то
разрешимая задача (2) имеет решение и в угловой точке (1), т.е.
она эквивалентна максимизации бc,xс на конечном
множестве вершин полиэдра (1). Процедура решения системы
линейных уравнений методом Гаусса требует не более полинома 3-й
степени от m,n (точнее, max(m,n)[min(m,n)]2) арифметических
операций с элементами A и b. Однако число возможных
подматриц матрицы A экспоненциально, и метод полного их
перебора не эффективен.
В 1820-х гг. Ж. Фурье и затем в 1947 г. Дж. Данциг предложили метод направленного перебора смежных вершин (1) - в направлении возрастания целевой функции (2) - симплекс-метод. Хотя каждый шаг симплекс-метода (представляющий собой определенную процедуру пересчета элементов симплекс-таблицы (3)) ограничен по порядку числом mn арифметических операций, в настоящее время для всех известных вариантов симплекс-метода приведены примеры, экспоненциальные по числу итераций, когда перебирается более 2min(n,m/2) вершин, но доказательство невозможности построить полиномиальный симплекс-метод также отсутствует. Подчеркнем, что на практике симплекс-метод не показывает данной оценки (``плохие" примеры довольно редки). Можно построить алгоритм решения задачи ЛП с оценкой f(n)m арифметических операций (над числами, записанными в (3)), где f(·) растет быстрее экспоненты. Алгоритм с полиномиальной оценкой одновременно по n и m не известен и вряд ли будет построен.
Теперь заметим, что функция, оценивающая число арифметических операций в зависимости от n и m, не учитывает длину кода элементов (3), а только их количество и поэтому не является временн'ой сложностью алгоритма. Указанная функция носит название алгебраической сложности в отличие от битовой сложности - функции, оценивающей число арифметических операций с битами (или с конечными порциями - по размеру машинного регистра) цифровой записи параметров индивидуальной задачи ЛП в зависимости от длины входного слова, т.е. от n, m и длин l кодов чисел в симплекс-таблице. Очевидно, битовая сложность алгоритма соответствует его временн'ой сложности (см. § 1). Входные коэффициенты задачи ЛП обычно рациональны, поэтому далее условимся считать их целыми, тогда l - длина записи максимального коэффициента в (3) - конечна. Набор (n, m, l) называется битовой размерностью задачи ЛП. Вопрос о существовании алгоритма ЛП с полиномиальной битовой сложностью был решен Л. Г. Хачияном в 1978 г., и тем самым была доказана полиномиальность задач ЛП. Основные моменты этого доказательства излагаются в следующем пункте и § 6. Здесь же укажем на отличие классов сложности задачи ЛП и других линейных задач.
Метод Гаусса решения системы линейных алгебраических уравнений имеет полиномиальную алгебраическую сложность, т.е. является сильнополиномиальным. Для ЛП вопрос о существовании сильнополиномиального алгоритма открыт. Кроме того, задача решения системы линейных уравнений принадлежит классу NC, а аналогичный результат для ЛП означал бы равенство NC=P, ожидать которое нет оснований.
Из полиномиальности ЛП вытекает полиномиальность задачи ЛН (существует ли решение системы ЛН): ЛН О P. Аналогичные задачи с дополнительным ограничением целочисленности или булевости решения NP-полны: ЦЛН, БЛН О NPC (см. § 2), т.е. полиномиальные алгоритмы для них вряд ли будут построены.
Существует неполиномиальное обобщение ЛП - задача проверки истинности
высказываний вида
|
2. Рассмотрим некоторые свойства задач ЛП с целыми коэффициентами.
Для любой целочисленной матрицы D введем параметр
|
Теорема 1 (о границах решений). Если озЛП (2) размерности (n,m) с целыми коэффициентами разрешима, то у нее существует рациональное решение x* в шаре ||x|| Ј n1/2 D([A|b]) и значением озЛП (2) d*= бc,x*с является рациональное число t/s со знаменателем, ограниченным величиной D(A).
Доказательство. На основании принципа граничных решений и по правилу Крамера $AI Н A: xj* = det AIj /detAI Ј D([A|b]), ибо det AI і 1, а определитель матрицы AIj, полученной из AI заменой j-го столбца на ±bI, не превышает по модулю D([A|b]). Отсюда для евклидовой нормы x* получаем требуемую оценку. С учетом целочисленности вектора c знаменатель d* может быть выбран равным знаменателю xj* "j, и 2-е утверждение теоремы следует из определения D(A) і |det AI|.
Определение 1. Точка xe называется
e-приближенным решением системы линейных неравенств (1), если
бai,xeс Ј bi + e "i = [`1,m], где ai - i-я строка матрицы A, |
| (1e) |
Теорема 2 (о мере несовместности). Если система ЛН (1) имеет e1-приближенное решение для e1 = 1/[(n+2)D(A)], то эта система разрешима, т.е. имеет точное решение x0.
Доказательство. Обозначим через e* минимальное
e, при котором система (1e) имеет решение
(по условию e* Ј e1):
|
Аналогичное утверждение справедливо и для озЛП.
Определение 2. Точка x*e называется e-приближенным решением озЛП (2), если она является e-приближенным решением системы (1) и реализует максимум в (2) с e-точностью:
бai,x*eс Ј bi + e "i = [`1,m] и бc,x*eс і d* - e. |
Теорема 2 * (о мере несовместности). Если озЛП (2) имеет e2-приближенное решение для e2 = 1/(2n2D3(A)), то эта задача имеет точное решение x*.
Доказательство см. в [3, с. 21].
§ 6. Метод эллипсоидов |
Полиномиальный алгоритм округления e1-приближенного решения
системы линейных неравенств. Метод эллипсоидов e2-приближенного
решения озЛП. Оценка сложности метода эллипсоидов. Полиномиальность ЛП.
1. Имея e-приближенное решение (1) с e Ј e1, можно (на основании теоремы 2, § 5) быть уверенным в
существовании точного решения системы линейных неравенств. Оказыватся,
процедура получения x0 из xe1 является полиномиальной.
Соответствующий алгоритм округления e1-приближенного
решения системы (1) до точного был указан Л. Г. Хачияном и состоит в следующем.
Присвоим x1: = xe1 и подставим x1 в (1). Разобьем множество M= {1,ј,m} индексов неравенств в системе на два подмножества
M(x1)= {i: |бai,x1с- bi| Ј e1}, |
M\M(x1)= {i: бai,x1с- bi Ј -e1}. |
Найдем решение xў1 системы равенств AM(x1)x = bM(x1) (существует
по теореме 2). Пусть xў1 не является точным решением (1), т.е. в xў1 не
выполнилось i-е неравенство для какого-либо i П M(x1). Тогда введем
множество индексов невыполненных неравенств M+= {i| бai, xў1с > bi} Н M\M(x1) и рассмотрим на отрезке [x1,xў1]
ближайшую к x1 точку, в которой еще выполнены все неравенства для i О M+
(в x1 они выполнены с e1-запасом). А именно определим
|
С учетом полиномиальности решения систем уравнений предложенный алгоритм округления полиномиален.
Аналогичный алгоритм имеется и для округления
e2-приближенного решения озЛП
x*e2 до точного x* (см. [3, с. 21]). Поэтому
для построения полиномиального алгоритма решения озЛП осталось указать
полиномиальный алгоритм поиска e2-приближенного решения озЛП в
шаре ||x|| Ј n1/2 D или удостоверения, что такого решения
нет (по теоремам 1,2* из § 5). Требуемый алгоритм, основанный на
методе эллипсоидов, который предложили в 1976-77 гг. Д. Б. Юдин и
А. С. Немировский и (независимо) Н. З. Шор, приводится в следующих пунктах.
Здесь и далее D= D(D), где матрица D задается таблицей (3).
2. Пусть E - произвольный эллипсоид в Rn с центром x и
ненулевого объема volE. Рассмотрим (n-1)-мерную плоскость,
заданную вектором g нормали и проходящую через центр x эллипсоида E.
Обозначим через E-(g) один из двух полуэллипсоидов, на которые разбивает
E данная плоскость, E-(g) = EЗ{x| бg,x-xс Ј 0}.
Утверждение 1. Полуэллипсоид E-(g)
эллипсоида E можно целиком заключить в новый эллипсоид Eў, имеющий объем,
строго меньший E,
| (*) |
Доказательство. Пусть E - единичный шар с центром в точке
[`0]: E = {x О Rn: ||x|| Ј 1}, а E-(g) = EЗ{xn і 0}. Поместим центр Eў в точку xў = (0,ј,0,1n+1), тогда
|
|
3. Метод эллипсоидов получения e-приближенного решения
озЛП. Положим e: = e2= 1/(2n2D3). Введем множество
e-приближенных решений озЛП в шаре радиуса R= n1/2 D с
центром в [`0]: X*e= {x| бai,xс Ј bi + e "i = [`1,m], бc,xс і d* - e, ||x|| Ј R}.
Выберем указанный выше шар в качестве начальной итерации для эллипсоида E Ј X*e. Рассмотрим произвольную итерацию.
Проверяем, является ли центр x эллипсоида E e-приближенным решением. Если да, то алгоритм заканчивает свою работу, в противном случае строим эллипсоид Eў для очередной итерации как минимальный по объему эллипсоид, содержащий полуэллипсоид E-(g) (см. п.2), где вектор g определяется следующим образом. Так как x П X*e, то либо
10) $i: бai,xс > bi + e, и тогда g: = ai, либо
20) бc,xс < d* - e и g: = -c.
Убедимся, что при этом X*e М Eў. Действительно, для
варианта 10
"x О X*e бai,xс Ј bi + e < бai,xс, т.е. X*e М EЗ{x| бai,x-xс Ј 0} = E-(ai) М Eў;
и аналогично получим для варианта 20
X*e М EЗ{x| бc,x-xс і 0} = E-(-c) М Eў. |
Оценим число итераций метода эллипсоидов. Покажем, что X*e
содержит шар радиуса r/2, где r= e/(hn1/2) < R, h і |aij|, |cj| (h высота задачи).
Пусть x* - точное решение в X*e. Из
||x* - x|| Ј r следует
|бai,xс- бai,x*с| Ј ||ai|| ||x*-x|| Ј hn1/2r = e "i О M и |бc,xс- бc,x*с| Ј ||c|| ||x*-x|| Ј hn1/2r,
т.е. указанный выбор r гарантирует, что все такие x будут
e-приближенными решениями. Поскольку ||x*|| Ј R, то
множество тех из рассматриваемых x, для которых ||x|| Ј R (т.е. пересечение шаров радиуса r и R,
включающее центр первого), содержит шар радиуса r/2. Этот шар и принадлежит
X*e.
Таким образом, объем X*e больше объема n-мерного шара радиуса
r/2. Значит, объем эллипсоида, построенного последним, например Ek для
k-й итерации, не должен оказаться меньше объема этого шара. Отсюда и из
утверждения 1 получаем для k соотношение
|
2n2ln(Rnh/e) < 2n2ln(2n3.5D5) < 10n2ln(nD). |
УПРАЖНЕНИЕ 6. Оценить по порядку битовую длину L входа озЛП: доказать, что L > O(ln(nD)).
Следовательно, число итераций метода эллипсоидов k < O(n2)L, и с учетом O(n2+nm) арифметических операций для каждой итерации получим оценку O(n3(n+m)L) для числа арифметических операций, достаточного методу эллипсоидов при поиске e2-приближенного решения озЛП. Алгоритм округления e2-приближенного решения до точного этой оценки не портит (см.[3, с. 21]). Можно также показать, что при реализации метода эллипсоидов и алгоритма округления все арифметические операции достаточно проводить с числами двоичной длины, ограниченной O(L). При этом ошибки, возникающие за счет конечности числа разрядов (ошибки округлений), поглощаются путем некоторого дополнительного увеличения (``раздутия") описанного эллипсоида Eў на каждой итерации [3, с. 24], что не влияет на порядок оценки для общего числа итераций. В результате временн'ая сложность такой процедуры решения озЛП оказывается полиномом от длины входа и справедлива
Теорема 3. Задача ЛП с целыми коэффициентами разрешима за полиномиальное от длины входа время.
Следствием данной теоремы является
Утверждение 2. ЛН О P.
Подчеркнем, что несмотря на доказанную полиномиальность, метод эллипсоидов не может
конкурировать с симплекс-методом при практическом решении задач ЛП (реально он
применяется в выпуклом квадратичном программировании), поскольку полученная
оценка числа его итераций достигается на любых индивидуальных задачах, даже
если в качестве начального приближения взять решение. Тогда как симплекс-метод
для ``хороших" (невырожденных) задач дает оценку O(n3), на порядок меньшую,
чем метод эллипсоидов, и за одну итерацию может подтвердить, что начальное
приближение является решением. Тем не менее сам факт полиномиальности ЛП
инициировал поиск новых методов ЛП, что привело к созданию целого класса
эффективных методов математического программирования - методы внутренней
точки - и позволило построить конкурентоспособные полиномиальные алгоритмы
ЛП. Идея их построения будет изложена в следующем параграфе, где также
приводятся необходимые сведения по теории ЛП, начиная с ЛН.
§ 7. Теория двойственности ЛП. Идея метода Кармаркара |
Следствия систем ЛН. Афинная лемма Ф'аркаша /без
доказательства/. Лемма Фаркаша о неразрешимости. Теорема двойственности ЛП.
Сведение озЛП к однородной системе уравнений с ограничением
положительности. Идея метода Кармаркара и его отличие от симплекс-метода.
1. Система ЛН (1) называется разрешимой, если
$x: Ax Ј b, и
неразрешимой - в противном случае. ОзЛП (2) разрешима,
когда разрешима система (1) и максимум в (2) достигается.
Определение 3. Линейное неравенство
| (4) |
Способ получения неравенств-следствий довольно прост: выберем произвольные
Иi і 0 "i О M, домножим на Иi каждое i-е
неравенство системы (1) и сложим; получим для вектора
|
Лемма Ф'аркаша (афинная). Линейное неравенство (4)
является следствием разрешимой в вещественных переменных системы ЛН (1) тогда и
только тогда, когда существует вектор И О Rm:
| (5) |
Для неразрешимой системы ЛН (1) можно формально считать следствием (1) заведомо неверное неравенство б[`0],xс Ј -1 и далее пользоваться афинной леммой Фаркаша, как показывает
Лемма Фаркаша о неразрешимости. Система ЛН (1)
неразрешима тогда и только тогда, когда разрешима система
| (6) |
Доказательство. Пусть (1) неразрешима, тогда из разрешимости системы бai,xс+ xn+1 Ј bi "i О M должно следовать, что xn+1 Ј -e < 0, т.е. следствием этой системы является неравенство б(0,ј,0,1/e),(x,xn+1)с Ј -1 и из афинной леммы Фаркаша получаем (6) (а также в дополнение еИi = 1/e). Если же (6) разрешима, то указанное выше неравенство б[`0],xс Ј -1 оказывается следствием (1) и должно выполняться для всех x, удовлетворяющих (1), значит, таких не существует.
Теперь мы можем доказать основной теоретический результат ЛП - теорему
двойственности, на которой базируются как методы решения задач ЛП, так и
способы анализа решения, и которая фактически дает необходимые и достаточные
условия оптимальности в ЛП. Наличие двойственности, обусловив хорошую
характеризацию задачи ЛН, предопределило полиномиальность ЛП.
Определение 4. Двойственной к задаче ЛП на максимум с
ограничениями неравенствами в форме озЛП (2) называется
следующая задача ЛП на минимум с ограничениями в канонической
форме:
|
| (7) |
УПРАЖНЕНИЕ 7. Показать, что двойственная задача к двойственной задаче ЛП совпадает с прямой задачей ЛП: представить (7) в форме озЛП (аналогично упражнению 5), выписать двойственную к полученной задаче и свести ее к (2).
Теорема 4 (двойственности ЛП). Задача ЛП разрешима тогда и только тогда, когда разрешима двойственная к ней. В случае разрешимости оптимальные значения целевых функций в обеих задачах совпадают, т.е. d* = d**, где d* - значение (2), d** - значение (7).
Доказательство проведем для случая озЛП, поскольку любая задача ЛП адекватно представляется в такой форме.
Пусть задача (2) разрешима, тогда (4) является следствием (1) "d і d* и не является "d < d*, что по афинной лемме Фаркаша эквивалентно разрешимости (5) при d і d* и неразрешимости (5) при d < d*, т.е. d* = min{d| (5)}, а это и есть значение (7).
И наоборот, из разрешимости (7) следует неразрешимость (6), ибо в противном случае min в (7) обращался бы в -Ґ (так как прибавление решения (6) к решению (7) дает допустимую точку и уменьшает значение целевой функции (7)). Отсюда получаем разрешимость (1) по лемме Фаркаша о неразрешимости. Кроме того, разрешимость (7) означает разрешимость (5) для любого d і d**, так что (4) оказывается следствием (1) для d і d**, и поэтому d** ограничивает сверху значение (2), т.е. максимум в (2) достигается. Таким образом получили разрешимость задачи (2) и можем вернуться к началу доказательства для установления равенства d* = d**.
Из теоремы 4 непосредственно получаем
Утверждение 3. Задача ЛП оптимизации эквивалентна решению системы линейных неравенств.
Действительно, озЛП (2) эквивалентна задаче ЛП (7) и обе они эквивалентны
системе ЛН относительно неизвестных (x,И):
| (8) |
Утверждение 4. Задача ЛП оптимизации эквивалентна решению системы линейных уравнений в неотрицательных переменных.
Доказательство. От системы ЛН (8) переходим к ограничениям в канонической форме аналогично упражнениям 5,7.
Утверждение 5. Задача ЛП эквивалентна поиску неотрицательного ненулевого решения однородной системы линейных уравнений.
Доказательство. На основании утверждения 4 озЛП сводится к
некоторой системе ЛН (с целыми коэффициентами) относительно вектора
вещественных неизвестных y:
| (9) |
бy,eс = y1+ј+yN-1 Ј NR, |
2. Метод Кармаркара (N. Karmarkar, 1984 г.). Воспользуемся
утверждением 5 и обозначениями, введенными при его доказательстве. Пусть
p(x)= (бp1,xс)2+ј+(бpK,xс)2, где pi -
строки P. Тогда p(x) = 0 эквивалентно Px = [`0]. Введем функцию
Кармаркара
|
Полиномиальный алгоритм поиска нужного приближенного [^x] приводится в [3, с. 26-28], и мы не будем его описывать. Отметим только, что аналогичный алгоритм может быть построен на основании применения метода Ньютона (см. в разд.3) к задаче минимизации функции Кармаркара или ей подобных. В результате получаем целый класс полиномиальных алгоритмов ЛП, которые на практике оказываются сравнимыми с симплекс-методом, не имея теоретических недостатков последнего. Предложенные алгоритмы строятся на принципиально новой идее: не дискретной, а непрерывной трактовки задачи ЛП, когда вместо перебора конечного числа угловых точек осуществляют поиск решения в исходном пространстве вещественных переменных, и траектории алгоритмов не проходят через угловые точки. Напомним, что метод эллипсоидов также не ориентируется на угловые точки многогранника ограничений. Характерно, что именно такой уход от дискретного программирования позволил построить полиномиальные алгоритмы ЛП. Поэтому далее будет дан некоторый обзор основных подходов к решению непрерывных задач оптимизации.
Замечание. Если бы речь шла о непосредственном поиске точного решения задачи ЛП указанными методами, то нельзя было бы гарантировать конечношаговость (не то, что полиномиальность) соответствующих алгоритмов. Для их применения существенной является возможность остановки в приближенном решении благодаря наличию полиномиального алгоритма округления. Но поскольку для его работы требуется начальное приближение из определенной окрестности решения, зависящей от длины l или высоты h, или длины входа L конкретной задачи ЛП, то и число итераций алгоритмов, базирующихся на рассматриваемом принципе, зависит от числа цифр в записи элементов матрицы ограничений. Так что не удается использовать данную идею для построения сильнополиномиальных алгоритмов ЛП, кроме как в частных случаях ограниченности элементов матрицы (например, в задачах на графах и сетях, где aij = 0,±1).
Литература:
4. Карманов В. Г. Математическое программирование. М.: Наука, 1986.
5. Сухарев А. Г., Тимохов А. В., Федоров В. В. Курс методов оптимизации. М.: Наука, 1985.
6. Мину М. Математическое программирование. М.: Наука, 1990.
§ 8. Oбзор идей МП |
Классификация задач МП. Преимущества выпуклого случая. Понятие о
градиентных и Ньютоновских методах минимизации. Условная оптимизация,
способы освобождения от ограничений (методы барьеров и штрафов).
1. Задача ЛП, как и задача минимизации функции Кармаркара, является
частным случаем задачи МР:
| (1) |
|
| (2) |
В зависимости от природы множества X задачи оптимизации классифицируются как: дискретные (комбинаторные) - X конечно или счетно, целочисленные - xj О Z, булевы - xj О B, вещественные (непрерывные) - X Н Rn, бесконечномерные или в функциональном пространстве, например, когда X - подмножество гильбертова пространства L2, и т.п. В данном разделе будем по преимуществу рассматривать задачи с вещественными переменными, которые собственно и называются (традиционно) задачами математического программирования (ЗМП). Если X М Rn, то говорим о задаче условной оптимизации (при условии x О X), иначе (X = Rn) получаем задачу безусловной оптимизации.
Для ЗМП минимум в (1) достигается в условиях теоремы Вейерштрасса (f непрерывна, X компактно или для некоторого [^x] О X ограничено множество Лебега функции f - {x О X|f(x) Ј f([^x])}).
Кроме разделения на условные и безусловные, ЗМП классифицируются по свойствам целевой функции и множества ограничений соответственно на задачи ЛП, выпуклого программирования, гладкие или негладкие и др. Для каждого из классов ЗМП разрабатываются свои численные методы их решения. С точки зрения численных методов существенно также разделение на локальную и глобальную оптимизацию. В определении (2) речь идет о глобальном минимуме, который, однако, найти не просто, и поэтому задачу стараются свести к дискретной оптимизации на множестве локальных минимумов.
Определение 1. Точка x0 О X называется точкой локального минимума в ЗМП (1), если $e > 0: f(x0) Ј f(x) "x О XЗOe(x0). Здесь и далее Oe(x) обозначает e-окрестность точки x.
Для поиска локального минимума применяются специальные методы, которые при определенных предположениях оказываются эффективными. Тогда как общая задача глобальной оптимизации является NP-трудной. Действительно к ней сводится NP-полная.
Утверждение 1. ЦЛН µ ЗМП.
Доказательство. Поскольку задача ЛН является частным случаем задачи ЛП, то для сведения ЦЛН к ЗМП достаточно представить условие целочисленности переменных в виде ограничений (неравенств) на вещественные переменные, что нетрудно сделать, например, так: {xj О Z} эквивалентно {xj О R|sin2 (pxj) Ј 0}.
Поэтому методы глобальной оптимизации будут рассмотрены в разд.4, а в данном параграфе остановимся на поиске локального экстремума. Отметим, что для ряда экстремальных постановок задач физики точки локального экстремума имеют самостоятельное значение. Кроме того, существует целый класс ЗМП, для которого локальный экстремум совпадает с глобальным минимумом, это - задачи выпуклого программирования.
Определение 2. Функция f называется выпуклой на X, если ее надграфик epigrafXf={(x,y)| y і f(x), x О X} - выпуклое множество. Функция, выпуклая на всей области определения, называется выпуклой. Множество называется выпуклым, если вместе с любыми двумя своими точками оно содержит отрезок, их соединяющий.
Утверждение 2. Любая точка локального минимума выпуклой функции является точкой ее глобального минимума.
Доказательство. Пусть f(x0) > f(x*). Тогда f(x0) > f(x) для всех точек x полуинтервала (x0,x*] (по определению 2), а значит, и в некоторой окрестности x0 - противоречие с определением 1.
Для решения задач выпуклого программирования примен'им метод эллипсоидов, причем в гладком случае отсечение полуэллипсоида проводится на основе градиента невыполненного ограничения в полной аналогии с алгоритмом из § 6. Поэтому задача поиска e-приближенного решения задачи выпуклого программирования оказывается полиномиально разрешимой. Для острых задач выпуклого программирования - когда функция цели убывает в окрестности минимума не медленнее некоторой линейной функции - можно получить и точное решение.
2. Общими методами локальной оптимизации (для произвольного, не обязательно выпуклого, случая) являются методы локального спуска.
Определение 3. Вектор h О Rn называется направлением убывания функции f в точке x, если f(x+ah) < f(x) для всех достаточно малых a > 0.
Утверждение 3. Пусть f дифференцируема в точке x. Тогда, если бgradf(x),hс < 0, то h - направление убывания функции f в точке x, и наоборот, если h - направление убывания функции f в точке x, то бgradf(x),hс Ј 0.
Доказательство. Из условия дифференцируемости f имеем для достаточно малых a > 0: f(x+ah)-f(x) = бgradf(x),ahс+o(a) = a{бgradf(x),hс+o(a)/a}. Очевидно, последняя добавка не изменит знака выражения в фигурных скобках, если скалярное произведение строго отрицательно или строго положительно. Отсюда автоматически вытекает требуемое утверждение.
Таким образом, направление локального убывания дифференцируемой функции должно
составлять острый угол с ее антиградиентом, который является в смысле линейного
приближения наилучшим направлением убывания. Для мнемоники приведем эпиграф к
главе, посвященной градиентным методам минимизации, из 1-го издания книги
Ф. П. Васильева Численные методы решения экстремальных задач: ``Вот кто-то с горочки спустился - антиградиент!"
Если gradf(x) = 0, то x будет стационарной точкой. Отметим, что в
условной оптимизации равенство нулю
градиента уже не является необходимым условием минимума (соответствующие
условия будут рассмотрены в § 9). Но в более простом случае X = Rn можно, двигаясь небольшими шагами в направлении антиградиента функции f
в текущей точке, прийти в стационарную точку, как
правило, локального минимума. Так мы получаем идею
градиентного метода безусловной минимизации, задаваемого
итеративной процедурой
|
1) Пассивные способы - {at} выбирается заранее.
Постоянный шаг - at = a0 для достаточно малых a0.
Убывающий шаг (если a0 не известно или при наличии помех) -
atЇ 0, еat = Ґ, еa2t < Ґ, например at = 1/t.
2) Адаптивные способы - {at} зависит от реализующейся
{xt}.
Метод скорейшего спуска -
at О Argmina > 0f(xt-a gradf(xt)).
Метод дробления шага (деления пополам) - если f(xt+1) > f(xt), то возврат к
t-й итерации с at: = at/2. (Возможно и увеличение шага
при стабильном убывании f, т.е. приближенный скорейший спуск.)
Правило Армихо - путем дробления шага добиваемся для at выполнения
условия f(xt-atgradf(xt))-f(xt) Ј -eat||gradf(xt)||2.
В общем случае дифференцируемой, ограниченной снизу f можно получить сходимость градиентного метода к множеству стационарных точек, а при дополнительных предположениях доказывается (за исключением варианта с убывающим шагом) линейная скорость сходимости, которая в выпуклых задачах означает ||xt+1 - x*|| Ј q||xt - x*|| для некоторого 0 < q < 1. Указанная линейная оценка объясняется тем, что в процессе минимизации градиентным методом используется линейная аппроксимация целевой функции на каждом шаге. Более высокую скорость сходимости получают для методов, основанных на квадратичной аппроксимации, в предположении дважды дифференцируемости f. Типичным примером здесь является метод Ньютона.
Пусть f О C2(Rn), разложим функцию f в ряд Тейлора в
окрестности текущей точки xt:
|
|
|
Нетрудно видеть, что полученная формула метода Ньютона решения задач
безусловной минимизации совпадает с формулой метода Ньютона решения системы
уравнений gradf(x) = 0, соответствующей необходимым условиям экстремума.
|
|
Для более сложных множеств X, допустим, задаваемых
ограничениями неравенствами
| (3) |
|
| (4) |
Утверждение 4. Пусть f,gi О C1(Rn),
выпуклы, p > 1 и $C*: xC=argmin{f(x)+C*е[gi+(x)]p} О X, тогда
|
Доказательство. Так как xC - точка безусловного экстремума дифференцируемой функции, то градиент оштрафованной функции цели в ней равен нулю: gradf(xC)+C*pе[gi+(xC)]p-1gradgi(xC) = 0. Но из условия xC О X все выражения в квадратных скобках, а значит, и второе слагаемое равны нулю. Отсюда следует gradf(xC) = 0, т.е. необходимое условие экстремальности точки xC для задачи безусловной оптимизации, которое в выпуклом случае оказывается и достаточным (см. утверждение 2). Поэтому xC - точка безусловного минимума f. Но xC О X, так что xC - и точка условного минимума f на X, ибо безусловный минимум не превышает условного. Утверждение доказано.
Таким образом, для гладкого штрафа не удается свести задачу условной минимизации
к безусловной, тем не менее формула (4) позволяет итеративно комбинировать
метод штрафов и градиентный метод в следующей процедуре:
"x1 О Rn
|
Утверждение 4 показывает, что траектории метода штрафа проходят, вообще говоря,
вне множества ограничений X, хотя и сходятся к данному множеству. Из-за этого
рассмотренный метод иногда также называют методом внешних штрафов в отличие от
методов внутренней точки, или барьеров. Типичным примером применения
метода барьеров является описанный в § 7 метод Кармаркара, когда задача (9),
эквивалентная задаче условной минимизации
|
|
Другие способы сведения задач условной оптимизации к безусловной, основанные на методе множителей Лагранжа, будут вытекать из результатов следующего параграфа.
§ 9. Двойственность в МП |
Необходимые условия локального минимума обобщенно дифференцируемых функций
при ограничениях неравенствах. Теорема Куна-Таккера. Понятие о регулярности
ограничений неравенств в задаче МП. Метод множителей Лагранжа.
1. В этом параграфе будем рассматривать задачу условной оптимизации (1) с
X М Rn, X № Ж, по преимуществу, с
ограничениями неравенствами (3). Как уже отмечалось,
условие равенства нулю градиента для таких задач может не иметь никакого
отношения к точкам условного экстремума. Поэтому выведем соответствующие
необходимые условия для рассматриваемого случая. Вначале они будут даны в
достаточно общей форме, допускающей применение для широкого класса задач МП
(кусочно-гладких и при произвольным образом заданных ограничениях, а также
не обязательно конечномерных). Затем проведем конкретизацию для ограничений
(3). Для обычных задач МП (конечномерных, с дифференцируемыми функциями)
справедливы все дальнейшие построения и выводы при замене знака t
обычным градиентом. Таким образом, основой обобщения является следующее
Определение 4. Функция f
называется
дифференцируемой по Адамару в точке x О Rn, если существует
вектор tf(x) О Rn, такой что "y О Rn выполнено:
|
В безусловной оптимизации существенную роль играли направления спуска (убывания целевой функции). В условной оптимизации, кроме убывания целевой функции, требуется отслеживать еще и невыход за ограничения. Поэтому вводится понятие возможного или допустимого направления в точке x О X для множества ограничений X как такого вектора y, для которого $t0 > 0: x+ty О X "t О [0,t0]. Замыкание множества всех допустимых направлений в точке x для X дает следующее
Определение 5. Контингентным конусом к множеству X в
точке x называется множество векторов
|
Очевидно, для [^x] П X K(X,[^x]) = Ж, а для xў О intX K(X,xў) = Rn. Для x О ¶X в случае гладкой границы конус K(X,x) называется также конусом касательных и соответствует касательным направлениям для ограничений-равенств.
Теорема 1 (общий вид необходимых условий локального минимума в задаче (1)). Пусть функция f дифференцируема по Адамару, X М Rn, X № Ж, x0 - точка локального минимума f в задаче (1), тогда "y О K(X,x0) бtf(x0),yс і 0.
Доказательство. Выберем y О K(X,x0). Для соответствующих
ему по определению 5 {tt,yt} выполнено x0+ttyt О X, и,
начиная с достаточно большого t, x0+ttyt О XЗOe(x0) (ибо tt® 0), следовательно, по определению 1
f(x0+ttyt) і f(x0). В пределе получим
|
Содержательно данные условия означают, что среди допустимых
направлений в точке локального минимума не должно быть
направлений убывания целевой функции (см. утверждение 3 § 8).
Однако в таком общем виде этими условиями не удобно
пользоваться.
Конкретизируем полученные условия для
ограничений неравенств, когда X задается формулой (3). Введем
"x О X множество индексов J(x) = {i О M| gi(x) = 0} - активных ограничений в точке x, т.е.
таких неравенств из (3), которые в этой точке выполнены как
равенства. И определим множество (конус)
|
Определение 6. Множество X для ограничений неравенств (3) называется регулярным в точке x О X, если G(x) Н K(X,x).
Теорема 2 (необходимые условия
локального минимума с ограничениями неравенствами). Пусть
функции f, gi "i О M дифференцируемы по Адамару, X № Ж, x0 - точка локального минимума f в задаче (1),(3) и множество X
регулярно в точке x0. Тогда
| (5) |
Доказательство. По теореме 1 и из определения регулярности X
в x0 следует, что бtf(x0),yс і 0 для всех y,
удовлетворяющих условию бtgj(x0),yс Ј 0 "j О J(x0). Значит, по определению 3 § 7, линейное неравенство бtf(x0),yс і 0 является следствием системы линейных неравенств
{бtgj(x0),yс Ј 0 "j О J(x0)}. Приведя это
неравенство к стандартному виду б-tf(x0),yс Ј 0 и
применив афинную лемму Фаркаша (§ 7), получим, что
|
Таким образом, для регулярных ограничений необходимым условием локального
минимума в гладкой задаче (1),(3) является равенство нулю дифференциала функции
в фигурных скобках в (5) для хоть каких-нибудь Иj і 0. Чтобы не
записывать в явном виде множество активных ограничений, вводят
функцию Лагранжа
|
| (6) |
Теорема 3 (принцип оптимальности Лагранжа). В предположениях теоремы 2 для задачи (1),(3) существует неотрицательный вектор множителей Лагранжа И і [`0], такой, что для x0 выполнены условия оптимальности - (6) и tx L(x0,И) = [`0].
Для выпуклых задач (1),(3) данные необходимые условия являются в регулярном случае и достаточными, и может быть доказана
Теорема 4 (Куна, Таккера). Если в задаче (1),(3) функции f,gj О C1(Rn) выпуклы и множество X регулярно (в любой точке), то x* - точка оптимума в этой задаче тогда и только тогда, когда в ней выполнены условия оптимальности для И і [`0].
Доказательство. Необходимость следует из предыдущих теорем, покажем достаточность. Для данного И в точке x* выполнено условие экстремальности x* для функции L(·,И). С учетом неотрицательности И эта функция выпукла по x, значит, x* является точкой ее минимума (см. утверждение 2 § 8). Отсюда и из условия дополняющей нежесткости получим, что f(x*) = f(x*)+бИ,[`g](x*)с = L(x*,И) Ј L(x,И)= f(x)+бИ,[`g](x)с Ј f(x) "x О X (ибо gj(x) Ј 0 для x, удовлетворяющих ограничениям), что и требуется в определении (2).
Аналогичные теоремам 2-4 утверждения справедливы и для случая, когда X задается ограничениями-равенствами, и для смешанных систем ограничений равенств и неравенств: gj(x) Ј 0, gi(x) = 0. Только на соответствующие ограничениям-равенствам множители Лагранжа Иi не надо накладывать условия неотрицательности, а на условие дополняющей нежесткости эти ограничения не влияют (в случае ограничений-равенств вообще опускаем (6) и приходим к классическому правилу множителей Лагранжа).
2. Теперь вспомним, что полученные условия являются значимыми лишь в
предположении регулярности ограничений, для которого определение 6 не дает
конструктивного способа проверки. В данном пункте будут рассмотрены некоторые
достаточные условия регулярности ограничений неравенств (3) для гладких задач.
Кроме G(x), определенного в п.1, введем также множество
|
Утверждение 5. В предположении дифференцируемости по Адамару (или обычной дифференцируемости) функций gj, задающих ограничения (3), G0(x) М K(X,x) "x О X.
Доказательство (от противного). Пусть существует направление
y О G0(x), не входящее в K(X,x), т.е. для любой последовательности,
фигурирующей в определении 5, найдется подпоследовательность
(tt,yt)®(+0,y): x+tt yt П X, следовательно, "t $ индекс j, такой что gj(x+tt yt) > 0. Возможных индексов -
конечное число, а различных t бесконечно много, значит, найдется ограничение,
пусть i-е, которое нарушается бесконечное число раз. Рассмотрим
соответствующую подпоследовательность {tk}: gi(x+ttkytk) > 0
и, устремляя k®Ґ, получим, что gi(x) і 0. Но из условия x О X
справедливо обратное неравенство, откуда следует равенство, т.е. i О J(x).
Однако для этого i по определению 4 будем иметь бtgi(x),yс=
|
Отсюда получаем следующее условие регулярности:
| (7) |
Утверждение 6. В сделанных предположениях условие (7) обеспечивает регулярность X в точке x.
Для доказательства достаточно заметить, что множество K(X,x) является замкнутым, а включение G0(x) М K(X,x) приводит к [`(G0(x))] Н K(X,x) после взятия операции замыкания.
Утверждение 7. Достаточным для (7) является
| (8) |
Доказательство. Из (8) для алгебраической суммы G и G0 следует: G+G0 Н G0, т.е. [`(G+G0)] Н [`(G0)], а [`(G0)] К [`0] дает G+[`(G0)] К G. И из линейности оператора замыкания и замкнутости G получаем (7).
Для выпуклых X выполнение (8) и, следовательно, регулярность (в любой точке) ограничений (3) гарантируется условием Слэйтера ($xў О X: gўi(x) < 0 "i О M). Линейные ограничения всегда регулярны (множество G совпадает с контингентным конусом), хотя условие Слэйтера или (8) для них может не выполняться.
Другие типы условий регулярности, а также условия регулярности для смешанных систем ограничений равенств и неравенств см. в [4-6]. В частности, классическим условием регулярности для ограничений-равенств является линейная независимость градиентов ограничений в экстремальной точке.
УПРАЖНЕНИЕ 8. Получить теорему двойственности ЛП как следствие теоремы Куна-Таккера (для случая озЛП).
Условия оптимальности служат основным инструментом теоретического исследования задач условной оптимизации. Чтобы численно (приближенно) найти условный экстремум с их помощью, применяют методы безусловной оптимизации для поиска седловой точки функции Лагранжа или комбинируют штрафную функцию с функцией Лагранжа для получения точного гладкого штрафа. К сожалению, все эти методы останавливаются в первом попавшемся локальном экстремуме. Глобальный оптимум можно искать, перебирая локальные оптимумы, но для задач неодномерной минимизации не понятно, как находить все локальные оптимумы. Некоторые из существующих подходов к решению задач глобальной оптимизации приводятся в следующем параграфе.