Т. Саати Принятие решений. Т. саати принятие решений метод анализа иерархий
Скачать 4.58 Mb.
|
Замечание. Решения задачи логарифмических наименьших квадратов, связан- ной с двумя матрицами оптического примера из гл. 2, будут (0,61; 0,24; 0,10; 0,05) и (0,61; 0,23; 0,10; 0,06). Если связать арифметические, геометрические и гармонические средние в нашей задаче шкалирования, то табл. 9.1 легко объясняется. 216 Таблица 9.1. Четыре метода возмущений при j ij ij i a g ω ω = Предположения в случае согла- сованности Задача Решение Предположения в общем случае Задача Решение Арифме- тическое среднее 1 ij g = , 1 n ij j g n = = ∑ 1 n i ij j j a n ω ω = = ∑ , 1, , i n = … , A n ω ω = 1 ij i n ij i a a ω = = ∑ , 1 1 n i i ω = = ∑ max 1 n ij j g λ = = ∑ , 1, , j n = … max 1 n i ij j j a ω λ ω = = ∑ , max A ω λ ω = Нормализован- ный правый соб- ственный вектор; индекс согласо- ванности ( ) ( ) max 1 n n λ − − Средне- геомет- рическое по стро- кам 1 ij g = , 1 1 n ij j g = = ∏ 1 1 n j ij j i a ω ω = = ∏ , 1, , i n = … ( ) 1/ n i ij na ω = 1 n ij j g µ = = ∏ 1 n j ij j i a ω µ ω = = ∏ Обычно заменяется на критерий логарифмических средних квад- ратов: 2 , 1 min log log n i ij i j j a ω ω = − = ∑ 2 min log µ То же, что и в случае согласо- ванности; не имеется меры согласованности Гармони- ческое среднее 1 ij g = , 1 1 n j ij n g = = ∑ 1 1 n i ij j i n a u u = = ∑ , uA nu = 1 n ij i i ij a u a = = ∑ , 1 1 n i i u = = ∑ (обратное первому случаю наверху) max 1 1 n j ij g λ = = ∑ max uA u λ = Нормализован- ный левый собст- венный вектор; индекс согласо- ванности ( ) ( ) max 1 n n λ − − Средне- геомет- рическое по таб- лицам То же, что и для среднегеометрического по строчкам 217 9.6. МЕТОД НАИМЕНЬШИХ КВАДРАТОВ ДЛЯ АППРОКСИМАЦИИ МАТРИЦЫ МАТРИЦЕЙ МЕНЬШЕГО РАНГА Матрица ( ) i j W ω ω = ранга один получается после решения задачи о собствен- ном значении. Она является приближением к матрице ( ) ij A a = . Мы используем тот факт, что любая матрица может быть аппроксимирована другой матрицей меньшего ранга. Это делается следующим образом. Во-первых, отметим, что ( ) 2 , 1 n T ij i j tr AA a = = ∑ , ( )( ) 2 , 1 n T ij i j i j tr A W A W a ω ω = − − = − ∑ , ( )( ) 1 min min n T i i tr A W A W α = − − = ∑ , где i α – собственные значения матрицы ( )( ) T A W A W − − Теперь для любой матрицы X матрица T XX симметрична, и все ее собственные значения действительны. Кроме того, X и T X положительны. Поэтому T XX поло- жительна и имеет единственное действительное положительное наибольшее собст- венное значение. Согласно Джонсону [72] T T AA P P ≡ Λ , T T A Q Q ≡ Λ где Λ – диагональная матрица, элементами которой являются собственные зна- чения A в порядке убывания величины; собственные векторы матрицы T AA явля- ются соответствующими столбцами матрицы P , а собственные векторы матрицы T A A – соответствующими строками матрицы T Q . Наконец, отметим, что наилучшее приближение методом наименьших квадратов матрицы A матрицей ранга r может быть задано выражением 1/ 2 T r r P Q Λ где r P и T r Q – части P и T Q , соответственно связанные с первыми r столбцами Λ Пусть 1 r = , тогда 1 P – собственный вектор матрицы T AA , ассоциируемый с мак- симальным собственным значением; 1 Q – собственный вектор матрицы T A A , ассо- циируемый с максимальным собственным значением. Если, как в согласованном случае, 1 11 12 1 1 1 1 , , , n Q p p p = … , где ( ) 1 11 12 1 , , , n P p p p = … , то наше решение в согласованном случае будет наилучшим приближением мето- дом наименьших квадратов. Это может быть не так в несогласованном случае. Проиллюстрируем идею наилучшего приближения методом наименьших квадра- тов на одной из матриц A примера из оптики, сформировав T AA , T A A и получим их собственные значения и собственные векторы. Собственные значения, одинако- 218 вые для обеих матриц, являются диагональными элементами матрицы Λ , располо- женными в порядке убывания. Собственные векторы матрицы T AA совпадают с со- ответствующими столбцами матрицы P , а матрицы T A A – со строками матрицы T Q Имеем 1 4 6 7 1/ 4 1 3 4 1/ 6 1/ 3 1 2 1/ 7 1/ 4 1/ 2 1 A = ; 132,9000 0 1, 4710 0 0,1283 0,0007 Λ = ; 1/ 2 11,528 0 1, 213 0 0,358 0,027 Λ = ; 0,875 0, 475 0,087 0,041 0, 436 0,690 0,568 0,109 0,188 0,512 0, 669 0,505 0,097 0,192 0, 471 0,855 P − − − = ; 0,089 0,349 0,589 0,723 0,158 0,819 0,146 0,533 0,347 0,341 0,767 0, 418 0,920 0,303 0, 207 0,136 T Q − = − − − − − ; 1/ 2 0,796 3,034 5,879 7,586 0,655 2,508 2,931 3, 279 0, 221 1,178 1,554 1,136 0,099 0,516 0,827 0,611 T P Q Λ = Используя подход, при котором находится максимальное собственное значение, получаем вектор в качестве оценки основной шкалы отношений. Основываясь на методе наименьших квадратов, можно получить матрицу 1/ 2 r r r P Q Λ пониженного ран- га (в нашем случае единичного), которая является наилучшим приближением в смысле наименьших квадратов к заданной матрице суждения. Естественно, что эта матрица является лучшим приближением в смысле наименьших квадратов, чем мат- рица ( ) i j W ω ω = , т. е. если определить 1/ 2 T r r r F A P Q = − Λ и G A W = − и просумми- ровать квадраты их элементов, то можно легко показать, что первая сумма равна ( ) s tr FF tr ′ = Λ , где s Λ – диагональная матрица собственных значений, не включен- ных в r Λ (в нашем случае r Λ – наибольшее собственное значение матрицы T A A и 219 s tr Λ – сумма остальных собственных значений). Можно показать, что ( ) ( ) ( ) T tr A W A W tr FF ′ − − ≥ , как и должно быть на самом деле. Однако задача за- ключается в получении вектора шкалы из аппроксимированной методом наимень- ших квадратов матрицы 1/ 2 T r r r P Q Λ . Если предположить, что эта матрица почти согла- сованна, то можно использовать любой из ее столбцов (нормализованных) как при- ближение к основной шкале. Но теперь возникает вопрос, насколько хорош этот вектор по сравнению с максимальным собственным вектором. В нашем примере ис- пользовалось среднеквадратичное отклонение от известных основных шкал в зада- чах, где желательно было провести сравнение. Как будет показано в приведенном ниже примере, максимальный собственный вектор явно превосходит вектор, полу- ченный методом наименьших квадратов (как мы его интерпретировали), если его рассматривать как приближение к реальности. Если образовать r Λ , полагая, что все диагональные элементы, кроме первого, наибольшего из них, равны нулю в Λ , то будем иметь 1/ 2 0,90 3,52 5,94 7, 29 0, 45 0,76 2,97 3,64 0,19 0,76 1, 28 1,57 0,10 0,39 0, 66 0,81 T r r r P Q Λ = Если сформировать 1/ 2 T r r r r F A P Q = − Λ и просуммировать квадраты ее элементов, получается 1,6, но сумма остальных собственных значений s tr Λ также равна 1,6. Полагая сформированную выше матрицу согласованной, для получения вектора шкалы нормализуем первый столбец и получаем ( ) 0,548; 0, 274; 0,118; 0,061 s = . Ин- тересно отметить, что все другие столбцы дают один и тот же результат, так как матрица единичного ранга. Хотя этот вектор не является таким хорошим приближением, как собственный вектор, находим, что его среднеквадратичное отклонение от фактического вектора ( ) 0,61; 0, 22; 0,11; 0,06 равно 0,00155, по сравнению с 0,00005 для максимального собственного вектора ( ) 0,62; 0, 22; 0,10; 0,06 ω = , соответствующего max 4,1 λ = . Это показывает, что для данного примера решение, полученное с помощью собственного вектора, лучше решения методом наименьших квадратов. Теперь используем элементы ω и s для формирования матрицы отношений ( ) i j W ω ω = и ( ) i j S s s = . Затем вычислим A W − и, просуммировав квадраты ее элементов, получим 13,42. Проделав то же самое для A S − , получим 11,45, что близко к первому результату, однако несколько лучше. Это означает, что аппрокси- мация методом наименьших квадратов лучше для минимизации суммы квадратов разностей. Для этого примера можно сделать вывод: так как нас интересует шкала, а не матрица отношений, ответ, полученный с помощью собственного вектора – лучше; и это несмотря на то, что он не удовлетворяет критерию минимума квадра- тов. 220 9.7. МНОГОКРИТЕРИАЛЬНЫЕ МЕТОДЫ Существуют разнообразные методы для анализа решений при многих целях. Не- которые из них разработаны для прогнозирования действий и выборов в ситуациях принятия решений. Другие разработаны для помощи лицу, принимающему решения, в виде практической техники, которая может быть использована для усовершенст- вования процедуры принятия решений. Методы взвешивания В [152] рассмотрены ранние обзоры по следующим методам оценки весов, при- веденным в [151, 13]; 1. Взвешивание частных критериев на основе их предсказуемости (с использо- ванием канонической корреляции). 2. Взвешивание частных критериев пропорционально их средней корреляции с другими частными критериями. 3. Взвешивание частных критериев с целью максимизации разности стимулов в величине общего критерия. 4. Взвешивание частных критериев с целью максимизации объясненной диспер- сии (с помощью факторного анализа). 5. Взвешивание частных критериев пропорционально их надежности. 6. Равновесное взвешивание частных критериев. 7. Взвешивание частных критериев с целью уравновешивания «эффективных ве- сов» (т. е. долей дисперсии общего критерия). 8. Взвешивание на основе денежного критерия. 9. Взвешивание частных критериев по суждениям экспертов. 10. Взвешивание частных критериев посредством множественной регрессии по построенному в шкале интервалов глобальному критерию. Эти методы исследуются или критикуются с точки зрения трех основных крите- риев: релевантности, многомерности и измеримости. Методы 1–7 имеют недостаточ- ную релевантность. Она игнорируется, используются произвольные статистические цели, или релевантность учитывается непрямым и несовершенным образом через другие частные критерии, а не через глобальный критерий. Методы 5–9 содержат смешенную оценку, так как выносится суждение относительно одного частного кри- терия, а затем независимо относительно другого. Поэтому результирующий много- мерный вектор имеет смешение между компонентами, выражающееся подчас в двойном подсчете важности частного критерия. Методы 8–10 страдают сложностью получения мер, которые имеют смысл при взвешивании относительно глобального критерия. Ниже представлены примеры методов взвешивания. Сопоставление исходов с целями. Допустим, имеются исходы 1 2 , , , m O O O … Этапы процедуры следующие [1, 54]: 1 Ранжировать цели по порядку значений. 2. Присвоить значение 1,00 первой цели и присвоить приемлемые значения дру- гим целям: цель 1 2 m O O O … значение 1 2 1, 00 m υ υ υ = … 3. Сравнить наиболее важную цель с совокупностью остальных целей. Короче, сравнить 1 O с 2 m O O + + … . Если 2 1 m υ υ ≥ + + … , то сравнить 2 O с 3 m O O + + … . Если 2 3 m υ υ υ ≥ + + … , то сравнить 3 O с 4 m O O + + … . и т. д., пока не завершится сравнение 2 m O − с 1 m m O O − + 221 4. Если 2 1 m υ υ < + + … , то сравнить 1 O с 2 1 m O O − + + … . Если условие 2 1 1 m υ υ − < + + … все еще выполняется, то сравнить 1 O с 2 2 m O O − + + … и т. д., до тех пор, пока 1 O не станет предпочтительнее остальных или пока не завершится срав- нение 1 O с 2 3 O O + , тогда следует возвратиться к этапу 3. 5. После того как величины i υ найдены, нормализовать их, разделив на 1 m i i υ = ∑ Предположения, лежащие в основе этой процедуры, следующие: С каждым исходом мы сопоставляем действительную неотрицательную величину. Если i O предпочтительнее j O , то i j υ υ > Если i O и j O равнозначны, то i j υ υ = Если исходам i O и j O соответствуют значения i υ и j υ , то исходу i j O O + соот- ветствует значение i j υ υ + . Это предположение несправедливо, если i O и j O взаим- но исключающие друг друга исходы. Когда имеется большое число исходов, эта процедура очень трудоемка. К тому же она не формирует единственную шкалу и с ее помощью нельзя справиться с за- дачами иерархического типа. В [82] использован метод непосредственного сравне- ния n объектов. Во-первых, объекты располагаются в ряд по порядку от наиболее предпочтительного к наименее предпочтительному. Сравниваются наиболее пред- почтительный объект со вторым по предпочтительности, второй с третьим и т. д., при этом каждый раз этому отношению приписываются численные значения. По за- вершении процесса число 1 приписывается наименее предпочтительному из n объ- ектов и для получения веса ( ) 1 n − -го объекта 1 умножается на отношение, полу- ченное в результате сравнения ( ) 1 n − -го с n -м объектом, и т. д., продвигаясь в об- ратном направлении и получая относительную шкалу оценок для n объектов. В этом методе отсутствует способ оценки согласованности. |