Главная страница
Навигация по странице:

  • Таблица 9.1. Четыре метода возмущений при

  • Методы взвешивания

  • Сопоставление исходов с целями.

  • Т. Саати Принятие решений. Т. саати принятие решений метод анализа иерархий


    Скачать 4.58 Mb.
    НазваниеТ. саати принятие решений метод анализа иерархий
    АнкорТ. Саати Принятие решений.pdf
    Дата09.05.2017
    Размер4.58 Mb.
    Формат файлаpdf
    Имя файлаТ. Саати Принятие решений.pdf
    ТипДокументы
    #7332
    КатегорияИнформатика. Вычислительная техника
    страница21 из 28
    1   ...   17   18   19   20   21   22   23   24   ...   28
    Замечание. Решения задачи логарифмических наименьших квадратов, связан- ной с двумя матрицами оптического примера из гл. 2, будут (0,61; 0,24; 0,10; 0,05) и (0,61; 0,23; 0,10; 0,06).
    Если связать арифметические, геометрические и гармонические средние в нашей задаче шкалирования, то табл. 9.1 легко объясняется.

    216
    Таблица 9.1. Четыре метода возмущений при
    j
    ij
    ij
    i
    a
    g
    ω
    ω
    =
    Предположения в случае согла- сованности
    Задача
    Решение
    Предположения в общем случае
    Задача
    Решение
    Арифме- тическое среднее
    1
    ij
    g
    =
    ,
    1
    n
    ij
    j
    g
    n
    =
    =

    1
    n
    i
    ij
    j
    j
    a
    n
    ω
    ω
    =
    =

    ,
    1,
    ,
    i
    n
    = …
    ,
    A
    n
    ω
    ω
    =
    1
    ij
    i
    n
    ij
    i
    a
    a
    ω
    =
    =

    ,
    1 1
    n
    i
    i
    ω
    =
    =

    max
    1
    n
    ij
    j
    g
    λ
    =
    =

    ,
    1,
    ,
    j
    n
    = …
    max
    1
    n
    i
    ij
    j
    j
    a
    ω
    λ
    ω
    =
    =

    , max
    A
    ω λ ω
    =
    Нормализован- ный правый соб- ственный вектор; индекс согласо- ванности
    (
    ) (
    )
    max
    1
    n
    n
    λ


    Средне- геомет- рическое по стро- кам
    1
    ij
    g
    =
    ,
    1 1
    n
    ij
    j
    g
    =
    =

    1 1
    n
    j
    ij
    j
    i
    a
    ω
    ω
    =
    =

    ,
    1,
    ,
    i
    n
    = …
    ( )
    1/ n
    i
    ij
    na
    ω
    =
    1
    n
    ij
    j
    g
    µ
    =
    =

    1
    n
    j
    ij
    j
    i
    a
    ω
    µ
    ω
    =
    =

    Обычно заменяется на критерий логарифмических средних квад- ратов:
    2
    ,
    1
    min log log
    n
    i
    ij
    i j
    j
    a
    ω
    ω
    =



    =







    2
    min log
    µ
    То же, что и в случае согласо- ванности; не имеется меры согласованности
    Гармони- ческое среднее
    1
    ij
    g
    =
    ,
    1 1
    n
    j
    ij
    n
    g
    =
    =

    1 1
    n
    i
    ij
    j
    i
    n
    a u u
    =
    =

    ,
    uA nu
    =
    1
    n
    ij
    i
    i
    ij
    a
    u
    a
    =
    =

    ,
    1 1
    n
    i
    i
    u
    =
    =

    (обратное первому случаю наверху) max
    1 1
    n
    j
    ij
    g
    λ
    =
    =

    max
    uA
    u
    λ
    =
    Нормализован- ный левый собст- венный вектор; индекс согласо- ванности
    (
    ) (
    )
    max
    1
    n
    n
    λ


    Средне- геомет- рическое по таб- лицам
    То же, что и для среднегеометрического по строчкам

    217 9.6. МЕТОД НАИМЕНЬШИХ КВАДРАТОВ
    ДЛЯ АППРОКСИМАЦИИ МАТРИЦЫ МАТРИЦЕЙ МЕНЬШЕГО РАНГА
    Матрица
    (
    )
    i
    j
    W
    ω ω
    =
    ранга один получается после решения задачи о собствен- ном значении. Она является приближением к матрице
    ( )
    ij
    A
    a
    =
    . Мы используем тот факт, что любая матрица может быть аппроксимирована другой матрицей меньшего ранга. Это делается следующим образом. Во-первых, отметим, что
    ( )
    2
    , 1
    n
    T
    ij
    i j
    tr AA
    a
    =
    =

    ,
    (
    )(
    )
    2
    , 1
    n
    T
    ij
    i
    j
    i j
    tr A W
    A W
    a
    ω ω
    =




    =




    ,
    (
    )(
    )
    1
    min min
    n
    T
    i
    i
    tr A W
    A W
    α
    =


    =

    , где
    i
    α
    – собственные значения матрицы
    (
    )(
    )
    T
    A W
    A W


    Теперь для любой матрицы
    X
    матрица
    T
    XX
    симметрична, и все ее собственные значения действительны. Кроме того,
    X
    и
    T
    X
    положительны. Поэтому
    T
    XX
    поло- жительна и имеет единственное действительное положительное наибольшее собст- венное значение.
    Согласно Джонсону [72]
    T
    T
    AA
    P P
    ≡ Λ
    ,
    T
    T
    A
    Q Q
    ≡ Λ
    где
    Λ
    – диагональная матрица, элементами которой являются собственные зна- чения
    A
    в порядке убывания величины; собственные векторы матрицы
    T
    AA
    явля- ются соответствующими столбцами матрицы
    P
    , а собственные векторы матрицы
    T
    A A
    – соответствующими строками матрицы
    T
    Q
    . Наконец, отметим, что наилучшее приближение методом наименьших квадратов матрицы
    A
    матрицей ранга
    r
    может быть задано выражением
    1/ 2
    T
    r
    r
    P
    Q
    Λ
    где
    r
    P
    и
    T
    r
    Q
    – части
    P
    и
    T
    Q
    , соответственно связанные с первыми
    r
    столбцами
    Λ
    Пусть
    1
    r
    =
    , тогда
    1
    P
    – собственный вектор матрицы
    T
    AA
    , ассоциируемый с мак- симальным собственным значением;
    1
    Q
    – собственный вектор матрицы
    T
    A A
    , ассо- циируемый с максимальным собственным значением. Если, как в согласованном случае,
    1 11 12 1
    1 1
    1
    ,
    ,
    ,
    n
    Q
    p
    p
    p


    = 




    , где
    (
    )
    1 11 12 1
    ,
    ,
    ,
    n
    P
    p
    p
    p
    =

    , то наше решение в согласованном случае будет наилучшим приближением мето- дом наименьших квадратов. Это может быть не так в несогласованном случае.
    Проиллюстрируем идею наилучшего приближения методом наименьших квадра- тов на одной из матриц
    A
    примера из оптики, сформировав
    T
    AA
    ,
    T
    A A
    и получим их собственные значения и собственные векторы. Собственные значения, одинако-

    218 вые для обеих матриц, являются диагональными элементами матрицы
    Λ
    , располо- женными в порядке убывания. Собственные векторы матрицы
    T
    AA
    совпадают с со- ответствующими столбцами матрицы
    P
    , а матрицы
    T
    A A
    – со строками матрицы
    T
    Q
    Имеем
    1 4
    6 7
    1/ 4 1
    3 4
    1/ 6 1/ 3 1
    2 1/ 7 1/ 4 1/ 2 1
    A






    =






    ;
    132,9000 0
    1, 4710 0
    0,1283 0,0007






    Λ =






    ;
    1/ 2 11,528 0
    1, 213 0
    0,358 0,027






    Λ =






    ;
    0,875 0, 475 0,087 0,041 0, 436 0,690 0,568 0,109 0,188 0,512 0, 669 0,505 0,097 0,192 0, 471 0,855
    P









    =






    ;
    0,089 0,349 0,589 0,723 0,158 0,819 0,146 0,533 0,347 0,341 0,767 0, 418 0,920 0,303 0, 207 0,136
    T
    Q







    =











    ;
    1/ 2 0,796 3,034 5,879 7,586 0,655 2,508 2,931 3, 279 0, 221 1,178 1,554 1,136 0,099 0,516 0,827 0,611
    T
    P
    Q






    Λ
    =






    Используя подход, при котором находится максимальное собственное значение, получаем вектор в качестве оценки основной шкалы отношений. Основываясь на методе наименьших квадратов, можно получить матрицу
    1/ 2
    r
    r
    r
    P
    Q
    Λ
    пониженного ран- га (в нашем случае единичного), которая является наилучшим приближением в смысле наименьших квадратов к заданной матрице суждения. Естественно, что эта матрица является лучшим приближением в смысле наименьших квадратов, чем мат- рица
    (
    )
    i
    j
    W
    ω ω
    =
    , т. е. если определить
    1/ 2
    T
    r
    r
    r
    F
    A P
    Q
    = − Λ
    и
    G
    A W
    = −
    и просумми- ровать квадраты их элементов, то можно легко показать, что первая сумма равна
    (
    )
    s
    tr FF
    tr
    ′ = Λ
    , где
    s
    Λ
    – диагональная матрица собственных значений, не включен- ных в
    r
    Λ
    (в нашем случае
    r
    Λ
    – наибольшее собственное значение матрицы
    T
    A A
    и

    219
    s
    tr
    Λ
    – сумма остальных собственных значений). Можно показать, что
    (
    ) (
    )
    (
    )
    T
    tr A W
    A W
    tr FF








    , как и должно быть на самом деле. Однако задача за- ключается в получении вектора шкалы из аппроксимированной методом наимень- ших квадратов матрицы
    1/ 2
    T
    r
    r
    r
    P
    Q
    Λ
    . Если предположить, что эта матрица почти согла- сованна, то можно использовать любой из ее столбцов (нормализованных) как при- ближение к основной шкале. Но теперь возникает вопрос, насколько хорош этот вектор по сравнению с максимальным собственным вектором. В нашем примере ис- пользовалось среднеквадратичное отклонение от известных основных шкал в зада- чах, где желательно было провести сравнение. Как будет показано в приведенном ниже примере, максимальный собственный вектор явно превосходит вектор, полу- ченный методом наименьших квадратов (как мы его интерпретировали), если его рассматривать как приближение к реальности.
    Если образовать
    r
    Λ
    , полагая, что все диагональные элементы, кроме первого, наибольшего из них, равны нулю в
    Λ
    , то будем иметь
    1/ 2 0,90 3,52 5,94 7, 29 0, 45 0,76 2,97 3,64 0,19 0,76 1, 28 1,57 0,10 0,39 0, 66 0,81
    T
    r
    r
    r
    P
    Q






    Λ
    =






    Если сформировать
    1/ 2
    T
    r
    r
    r
    r
    F
    A P
    Q
    = − Λ
    и просуммировать квадраты ее элементов, получается 1,6, но сумма остальных собственных значений
    s
    tr
    Λ
    также равна 1,6.
    Полагая сформированную выше матрицу согласованной, для получения вектора шкалы нормализуем первый столбец и получаем
    (
    )
    0,548; 0, 274; 0,118; 0,061
    s
    =
    . Ин- тересно отметить, что все другие столбцы дают один и тот же результат, так как матрица единичного ранга.
    Хотя этот вектор не является таким хорошим приближением, как собственный вектор, находим, что его среднеквадратичное отклонение от фактического вектора
    (
    )
    0,61; 0, 22; 0,11; 0,06
    равно 0,00155, по сравнению с 0,00005 для максимального собственного вектора
    (
    )
    0,62; 0, 22; 0,10; 0,06
    ω
    =
    , соответствующего max
    4,1
    λ
    =
    . Это показывает, что для данного примера решение, полученное с помощью собственного вектора, лучше решения методом наименьших квадратов.
    Теперь используем элементы
    ω
    и
    s
    для формирования матрицы отношений
    (
    )
    i
    j
    W
    ω ω
    =
    и
    (
    )
    i
    j
    S
    s s
    =
    . Затем вычислим
    A W

    и, просуммировав квадраты ее элементов, получим 13,42. Проделав то же самое для
    A S

    , получим 11,45, что близко к первому результату, однако несколько лучше. Это означает, что аппрокси- мация методом наименьших квадратов лучше для минимизации суммы квадратов разностей. Для этого примера можно сделать вывод: так как нас интересует шкала, а не матрица отношений, ответ, полученный с помощью собственного вектора – лучше; и это несмотря на то, что он не удовлетворяет критерию минимума квадра- тов.

    220 9.7. МНОГОКРИТЕРИАЛЬНЫЕ МЕТОДЫ
    Существуют разнообразные методы для анализа решений при многих целях. Не- которые из них разработаны для прогнозирования действий и выборов в ситуациях принятия решений. Другие разработаны для помощи лицу, принимающему решения, в виде практической техники, которая может быть использована для усовершенст- вования процедуры принятия решений.
    Методы взвешивания
    В [152] рассмотрены ранние обзоры по следующим методам оценки весов, при- веденным в [151, 13];
    1. Взвешивание частных критериев на основе их предсказуемости (с использо- ванием канонической корреляции).
    2. Взвешивание частных критериев пропорционально их средней корреляции с другими частными критериями.
    3. Взвешивание частных критериев с целью максимизации разности стимулов в величине общего критерия.
    4. Взвешивание частных критериев с целью максимизации объясненной диспер- сии (с помощью факторного анализа).
    5. Взвешивание частных критериев пропорционально их надежности.
    6. Равновесное взвешивание частных критериев.
    7. Взвешивание частных критериев с целью уравновешивания «эффективных ве- сов» (т. е. долей дисперсии общего критерия).
    8. Взвешивание на основе денежного критерия.
    9. Взвешивание частных критериев по суждениям экспертов.
    10. Взвешивание частных критериев посредством множественной регрессии по построенному в шкале интервалов глобальному критерию.
    Эти методы исследуются или критикуются с точки зрения трех основных крите- риев: релевантности, многомерности и измеримости. Методы 1–7 имеют недостаточ- ную релевантность. Она игнорируется, используются произвольные статистические цели, или релевантность учитывается непрямым и несовершенным образом через другие частные критерии, а не через глобальный критерий. Методы 5–9 содержат смешенную оценку, так как выносится суждение относительно одного частного кри- терия, а затем независимо относительно другого. Поэтому результирующий много- мерный вектор имеет смешение между компонентами, выражающееся подчас в двойном подсчете важности частного критерия. Методы 8–10 страдают сложностью получения мер, которые имеют смысл при взвешивании относительно глобального критерия. Ниже представлены примеры методов взвешивания.
    Сопоставление исходов с целями. Допустим, имеются исходы
    1 2
    ,
    ,
    ,
    m
    O O
    O

    Этапы процедуры следующие [1, 54]:
    1 Ранжировать цели по порядку значений.
    2. Присвоить значение 1,00 первой цели и присвоить приемлемые значения дру- гим целям: цель
    1 2
    m
    O O
    O

    значение
    1 2
    1, 00
    m
    υ
    υ
    υ
    =

    3. Сравнить наиболее важную цель с совокупностью остальных целей. Короче, сравнить
    1
    O
    с
    2
    m
    O
    O
    + +

    . Если
    2 1
    m
    υ
    υ

    + +

    , то сравнить
    2
    O
    с
    3
    m
    O
    O
    + +

    . Если
    2 3
    m
    υ
    υ
    υ

    + +

    , то сравнить
    3
    O
    с
    4
    m
    O
    O
    + +

    . и т. д., пока не завершится сравнение
    2
    m
    O

    с
    1
    m
    m
    O
    O

    +

    221 4. Если
    2 1
    m
    υ
    υ
    <
    + +

    , то сравнить
    1
    O
    с
    2 1
    m
    O
    O

    + +

    . Если условие
    2 1
    1
    m
    υ
    υ

    <
    + +

    все еще выполняется, то сравнить
    1
    O
    с
    2 2
    m
    O
    O

    + +

    и т. д., до тех пор, пока
    1
    O
    не станет предпочтительнее остальных или пока не завершится срав- нение
    1
    O
    с
    2 3
    O
    O
    +
    , тогда следует возвратиться к этапу 3.
    5. После того как величины
    i
    υ
    найдены, нормализовать их, разделив на
    1
    m
    i
    i
    υ
    =

    Предположения, лежащие в основе этой процедуры, следующие:
    С каждым исходом мы сопоставляем действительную неотрицательную величину.
    Если
    i
    O
    предпочтительнее
    j
    O
    , то
    i
    j
    υ υ
    >
    Если
    i
    O
    и
    j
    O
    равнозначны, то
    i
    j
    υ υ
    =
    Если исходам
    i
    O
    и
    j
    O
    соответствуют значения
    i
    υ
    и
    j
    υ
    , то исходу
    i
    j
    O O
    +
    соот- ветствует значение
    i
    j
    υ υ
    +
    . Это предположение несправедливо, если
    i
    O
    и
    j
    O
    взаим- но исключающие друг друга исходы.
    Когда имеется большое число исходов, эта процедура очень трудоемка. К тому же она не формирует единственную шкалу и с ее помощью нельзя справиться с за- дачами иерархического типа. В [82] использован метод непосредственного сравне- ния
    n
    объектов. Во-первых, объекты располагаются в ряд по порядку от наиболее предпочтительного к наименее предпочтительному. Сравниваются наиболее пред- почтительный объект со вторым по предпочтительности, второй с третьим и т. д., при этом каждый раз этому отношению приписываются численные значения. По за- вершении процесса число 1 приписывается наименее предпочтительному из
    n
    объ- ектов и для получения веса
    (
    )
    1
    n

    -го объекта 1 умножается на отношение, полу- ченное в результате сравнения
    (
    )
    1
    n

    -го с
    n
    -м объектом, и т. д., продвигаясь в об- ратном направлении и получая относительную шкалу оценок для
    n
    объектов. В этом методе отсутствует способ оценки согласованности.
    1   ...   17   18   19   20   21   22   23   24   ...   28


    написать администратору сайта