Митина_P. Популяционные методы аппроксимации множества Парето в задаче многокритериальной оптимизации. Обзор. 7730569363023
Скачать 0.63 Mb.
|
Утверждение 3. Предположим, что дерево доминирования предварительно тем или иным образом построено. Тогда поиск в архиве 25 - расширяем зону поиска - рассматриваем все возможные гиперкубы 2 j H с длиной ребра равной n 2 , которые включают в себя гиперкуб 1 j H ; - определяем пригодность гиперкубов 2 j H , как сумму пригодностей входящих в них гиперкубов 1 j H ; - из числа всех найденных гиперкубов 2 j H по правилу рулетки выбираем один из гиперкубов 2 * j H ; - случайным образом с равной вероятностью выбираем одну из точек A j i F этого гиперкуба. 3) В качестве искомой лучшей точки принимаем соответствующую точку A j i F Приведенную схему выбора лучшей точки иллюстрирует рисунок 12. Точка i F на рисунке находится в гиперкубе ABCD . В этом гиперкубе нет ни одной архивной точки. Поэтому в рассмотрение вводим гиперкубы DMNP CHKL BEFG , , . Пригодности этих гиперкубов равны 2; 2,3; 0,4 соответственно. По правилу рулетки выбираем, например, гиперкуб BEFG . В этом гиперкубе с равной вероятностью выбираем одну из архивных точек, например, точку, на которую на рисунке указывает стрелка. 6.4. Метод динамических соседей Метод динамических соседей предложили Хью (X. Hu) и Эберхарт (R. Eberhart) в 2002 г. [29]. Схему метода можно представить в следующем виде. 1) Фиксируем все критерии оптимальности, кроме критерия ) ( 1 X f - полагаем этот критерий динамическим. 2) Вычисляем в пространстве критериев F f f f ,..., , 3 2 расстояния (например, евклидовы) от точки i F , ] : 1 [ S i ∈ до всех архивных точек ] : 1 [ , A j F A j ∈ 3) Выбираем на этой основе m ближайших архивных соседей точки i F , где m - свободный параметр метода. 4) Из числа выделенных точек выбираем лучшую по критерию ) ( 1 X f 5) На следующей итерации полагаем динамическим критерий ) ( 2 X f , а все остальные критерии фиксируем. И так далее. Авторы метода отмечают, что остается открытым вопрос об оптимальной величине числа m 6.5. Метод хищник-жертва Метод хищник-жертва (predator-prey) предложил Лауманс (M. Laumanns) с соавторами в 1998 г. [30]. Рассматриваем оригинальный метод Лауманса и его основные модификации последних лет. Полагаем, что областью допустимых значений вектора 27 5) Вычисляем значения соответствующего критерия для всех жертв в окрестности каждого из хищников и выбираем худшие жертвы. 6) Полагаем, что выбранные жертвы поглощены хищниками, и удаляем их из популяции. 7) Взамен каждого из удаленных агентов создаем новую жертву путем изменения случайно выбранной жертвы в окрестности удаленного агента. 8) Случайным образом перемещаем хищников из их текущих положений в соседние вершины графа. 9) Если условие окончания итераций не выполнено, возвращаемся к шагу 5. Экспериментально показано, что с ростом числа поколений популяция жертв стремится к фронту Парето, т.е. представляет собой искомую Парето-аппроксимацию. Недостатком рассмотренного канонического метода хищник-жертва является возможная потеря лучших (ближайших к множеству Парето решений). Деб (K. Deb) в 2001 г. предложил улучшения метода [31], суть которых заключается в следующем: - хищникам ставят в соответствие не частные критерии оптимальности, а векторы их весов; - вместо удаленной жертвы новую жертву создают путем модификации не случайного, но лучшего агента в окрестности удаленной жертвы; - хищника перемещают не случайным образом, а в направлении позиции лучшей жертвы в его окрестности. Исследования авторов метода показывают, что он обеспечивает по сравнению с каноническим методом более высокую скорость сходимости, однако, как и канонический метод, может терять найденные лучшие решения. В работе [32] рассмотрена модификация канонического метода, предложенная Ли (X. Li) , в которой жертв и хищников помещают не во все узлы графа, представленного на рисунке 13. Жертвы и хищники выполняют случайные перемещения в направлении соседних пустых узлов графа, причем хищники движутся быстрее жертв. При каждом перемещении жертвы создается ее потомок. Вычислительные эксперименты показали недостаточно высокую скорость сходимости соответствующего алгоритма. В той же работе [32] Дебом (K. Deb) и Рао (U. Rao) предложена глубокая модификация канонического метода, основу которой составляют следующие три механизма: - механизм сохранения лучших решений; - механизм рекомбинации решений; - механизм получения равномерной Парето-аппроксимации. Механизм сохранения лучших решений(элитизм) предполагает сравнения приспособленности худших жертв с приспособленностью созданных агентов (потомков). Меру приспособленности агентов строим на основе Парето доминирования. Если данный потомок слабо доминирует всех жертв популяции (лучше их, по крайней мере, по одному из частных критериев оптимальности), то заменяем этим потомком соответствующую худшую жертву. В противном случае потомка объявляем неподходящим, худшую жертву оставляем в популяции, а хищник для обеспечения разнообразия популяции случайным образом 29 известные методы Парето-аппроксимации не учитывают этого обстоятельства. Поэтому актуальной, на наш взгляд, является разработка адаптивных и самоадаптивных методов Парето-аппроксимации, учитывающих данный факт. Практически значимые задачи многокритериальной оптимизации имеют высокую вычислительную сложность и требуют для своего решения использования параллельных вычислительных систем. Поэтому необходима разработка параллельных методов Парето- аппроксимации, ориентированных на различные классы таких систем (кластерные системы, графические процессорные устройства и т.д.) [34]. Важным с практической точки зрения является класс задач Парето-аппроксимации, в которых требуется построить аппроксимацию не всего фронта Парето, но лишь той части его, которая ближе всего к заданной пользователем «предпочтительной» точке пространства критериев. Поэтому представляется актуальной задача разработки методов решения задач данного класса. Известна модификация метода хищник-жертва, предназначенная для решения таких задач [32]. Можно также считать, что метод идеальной точки является частным случаем этих методов. Задачу Парето-аппроксимации можно считать одной из широкого класса задач приближенного построения границ множеств различной природы. Поэтому значительный интерес представляет адаптация рассмотренных методов и разработка новых методов, предназначенных для решения задач указанного класса. Пример такого подхода демонстрирует работа [35], в которой один из методов Парето-аппроксимации использован для приближенного построения границы области достижимости многосекционного манипулятора параллельной кинематики типа хобот. Отметим, наконец, перспективность гибридизации рассмотренных и иных методов Парето-аппроксимации. Авторы благодарят Бушневского А.В. и Савелова А.С. за помощь в подготовке некоторых материалов для данной работы. Литература 1. Подиновский В.В., Ногин В.Д. Парето-оптимальные решения многокритериальных задач.- М.: Физматлит, 2007.- 256 с. 2. Ногин В.Д. Принятие решений в многокритериальной среде: количественный подход.- М.: Физматлит, 2005.- 176 с. 3. Ларичев О.И. Теория и методы принятия решений: Учебник для ВУЗов.- М.: Университетская книга, Логос, 2006.- 392 с. 4. Курейчик В.М. Генетические алгоритмы и их применение.- Таганрог: Изд-во Таганрогского РТУ, 2002. -244 с. 5. Ashlock D. Evolutionary Computation for Modeling and Optimization.- Springer, 2006.- 571 pp. 6. Guliashki V., Toshev H., Korsemov Ch. Survey of Evolutionary Algorithms Used in Multiobjective Optimization // Problems of Engineering Cybernetics and Robotics, 2009, Vol. 60, pp. 42 – 54. 31 22. Zitzler E., Thiele L. Multiobjective evolutionary algorithms: A comparative case study and the strength Pareto approach, IEEE Transactions on Evolutionary Computation, 1999, Vol. 3(4), pp. 257–271. 23. Zitzler E., Laumanns M., Thiele L. SPEA2: Improving the Strength Pareto Evolutionary Algorithm for Multiobjective Optimization / In K.C. Giannakoglou and al., editors. Evolutionary Methods for Design, Optimization and Control with Application to Industrial Problems (EUROGEN 2001), International Center for Numerical Methods in Engineering (CIMNE), 2002, pp. 95-100. 24. Knowles J., Corne D. The Pareto achieved evolution strategy: A new baseline algorithm for Pareto multiobjective optimization / Proceedings of the Congress on Evolutionary Computation (CEC99), 1999, Washington, Vol. 1, pp. 98–105. 25. Bentley P. J., Wakefield J. P. An Analysis of Multiobjective Optimization within Genetic Algorithms / Technical Report ENGPJB96, University of Huddersfield, UK, 1996. P. 19. 26. Mostaghim S., Teich J. Strategies for Finding Good Local Guides in Multi-objective Particle Swarm Optimization (MOPSO) / In: Swarm Intelligence Symposium, 2003. SIS '03. Proceedings of the 2003 IEEE, pp. 26 – 33. 27. Fieldsend J.E., Singh S. A multi-objective algorithm based upon particle swarm optimization, an efficient data structure and turbulence (2002). (http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.19.6959). 28. Coello C.A., Lechuga M.S. MOPSO: A proposal for multiple objective particle swarm optimization / In IEEE Proceedings, World Congress on Evolutionary Computation (CEC2002), 2002, pp. 1051-1056. 29. Hu X., Eberhart R. Multiobjective Optimization Using Dynamic Neighborhood Particle Swarm Optimization / In: Evolutionary Computation, 2002. CEC '02. Proceedings of the 2002 Congress on, Honolulu, HI, USA, 12 – 17 May 2002, pp. 1677 – 1681. 30. Laumanns M., Rudolph G., Schwefel H.P. A spatial predator-prey approach to multi- objective optimization: A preliminary study / In Proceedings of the Parallel Problem Solving from Nature, 1998, Vol. V, pp. 241-249. 31. Deb K. Multi-objective optimization using evolutionary algorithms.- Chichester, UK: Wiley, 2001, P. 518. 32. Deb K., Rao U. B. Investigating Predator-Prey Algorithms for Multi-Objective Optimization / Kanpur Genetic Algorithms Laboratory (KanGAL), Department of Mechanical Engineering Indian Institute of Technology Kanpur, India, KanGAL Report Number 2005010 (http://www.iitk.ac.in/kangal/). 33. Deb K., Mohan M., Mishra S. Evaluating the ε -domination based multi-objective evolutionary algorithm for a quick computation of Pareto-optimal solutions // Evolutionary Computation Journal, 2005, Vol. 13(4), pp. 501-525. 34. Антух А.Э., Карпенко А.П., Семенихин А.С., Хасанова Р.В. Построение множества Парето методом роя частиц на графических процессорах архитектуры CUDA // Научный сервис в сети Интернет: суперкомпьютерные центры и задачи: Труды Международной суперкомпьютерной конференции (20-25 сентября 2010 г., г. Новороссийск). М.: Изд-во МГУ, 2010. C. 274-280. |