Главная страница
Навигация по странице:

  • 3.4. Распределенный контроль

  • Задачи и упражнения к главе 3 3.1.

  • 3.18.

  • 3.29.

  • ВВедение в теорию управления организационными системами. В теорию управления организационными


    Скачать 1.89 Mb.
    НазваниеВ теорию управления организационными
    АнкорВВедение в теорию управления организационными системами
    Дата21.05.2020
    Размер1.89 Mb.
    Формат файлаpdf
    Имя файлаВВедение в теорию управления организационными системами.pdf
    ТипУчебник
    #124282
    страница8 из 23
    1   ...   4   5   6   7   8   9   10   11   ...   23
    3.3. Механизмы стимулирования
    в многоэлементных системах
    В разделах 3.1 и 3.2 мы рассмотрели организационную систему, состоящую из одного центра и одного агента, и решили для этой простейшей модели задачу стимулирования, в которой целевая функция центра представляла собой разность между доходом и затратами на стимулирование, выплачиваемыми агенту. Мы доказа- ли, что оптимальной является компенсаторная система стимулиро- вания, которая имеет следующий вид: агент получает вознагражде- ние, равное затратам, в случае выполнения плана и вознаграждение, равное нулю, во всех остальных случаях. Оптимальный план опре- делялся как план, максимизирующий разность между доходом центра и затратами агента.
    Давайте эту же задачу стимулирования с той же содержатель- ной интерпретацией попробуем «продолжить» дальше и решить ее для более сложных случаев. Например, для системы, состоящей из нескольких агентов, подчиненных одному центру (Рис. 3.4).
    Как отмечалось в первой главе, любая организационная система
    (точнее ее модель) описывается следующими параметрами: состав, структура, целевые функции, допустимые множества и информиро- ванность. Состав рассматриваемой системы понятен: центр и n агентов; структура представлена на Рис. 3.4 – все агенты на нижнем уровне, центр на верхнем уровне, всего уровней иерархии два. Целе- вые функции и допустимые множества:
    {
    }
    n
    N
    i
    y
    A
    y
    i
    i
    i
    i
    K
    ,
    2
    ,
    1
    ),
    (
    ,
    =
    Î
    Î
    s

    87
    Будем считать, что i-ый агент выбирает действие
    i
    y
    из множе- ства A
    i
    , центр выбирает стимулирование i-го агента
    s
    i
    (y
    i
    ), которое зависит от действия, которое выбирает i-й агент, где i принадлежит множеству агентов N.
    Целевая функция центра представляет собой разность между доходом H(y), который он получает от деятельности агентов, где
    y = (y
    1
    , y
    2
    , …, y
    n
    )
    Î A’ =
    Õ
    ÎN
    i
    i
    A
    – вектор действий всех агентов, и суммарным стимулированием, выплачиваемым агентам, то есть суммой по всем агентам тех вознаграждений, которые он им выпла- чивает:
    å
    Î
    -
    =
    ×
    N
    i
    i
    i
    y
    y
    H
    y
    Ф
    )
    (
    )
    (
    )
    ),
    (
    (
    s
    s
    Мы обобщили предыдущую более простую модель: целевая функция агента имеет тот же вид, только появляется индекс i. И таких целевых функций n штук, то есть i-ый агент получает стиму- лирование за свои действия от центра и несет затраты, зависящие только от его собственных действий:
    N
    i
    y
    с
    y
    y
    f
    i
    i
    i
    i
    i
    i
    Î
    -
    =
    ×
    ),
    (
    )
    (
    )
    ),
    (
    (
    s
    s
    Сравним целевую функцию в предыдущей модели и целевую функцию, которая записана для веерной структуры с несколькими агентами. Стимулирование i-го агента зависит только от его собст- венных действий, затраты тоже зависят только от его собственных действий и целевая функция i-го агента зависит только от его сти- мулирования и от его собственных действий, то есть агенты между собой, фактически, не связанны. Итак, полноценной игры между агентами нет, потому что тот выигрыш, который получает любой агент, зависит только от того, что делает он сам и не зависит от того, что делают остальные.
    Эта сложная система может быть разбита на n подсистем, каж- дая из которых имеет вид, приведенный на Рис. 1.11, и рассматри- вать их можно, в принципе, независимо. Применим для каждой из них по отдельности результат утверждений 3.1 и 3.2.
    Из результатов анализа одноэлементной модели известно, что каждого из агентов можно стимулировать независимо, и каждому из них достаточно компенсировать затраты. Поэтому задачу можно решить так: известно, что доход центра будет H(y), и заплатить он должен i-му агенту за выбор действия y
    i
    ровно c
    i
    (y
    i
    ). Подставляем оптимальную систему стимулирования в целевую функцию центра,

    88 получаем разность H(y)
    å
    ÎN
    i
    i
    i
    y
    c
    )
    (
    . Ищем оптимальный план, кото- рый будет максимизировать целевую функцию центра на множестве допустимых векторов действия агентов:
    H(y) –
    å
    ÎN
    i
    i
    i
    y
    c
    )
    (
    ®
    '
    max
    A
    y
    Î
    Это – оптимизационная задача, и проблем с формальным решением этой задачи обычно не возникает.
    Давайте посмотрим еще раз на полученный результат. Каким образом будет принимать решение отдельный агент?Его целевая функция зависит только от его собственного действия, и при извест- ной системе стимулирования, сообщенной ему центром, он будет решать задачу выбора своего собственного действия, которое будет максимизировать его целевую функцию – разность между вознагра- ждением и затратами. Т.к. его целевая функция зависит только от его собственного действия, то выбираемое им действие не будет зависеть от того, что делают остальные агенты. В этом смысле агенты независимы, то есть у каждого есть доминантная стратегия.
    Получилось, что число агентов возросло, а никакого качественно нового эффекта не появилось – можно рассматривать взаимодейст- вие между центром и агентами независимо. Поэтому продолжим усложнение модели.
    Первым шагом усложнения будет введение ограничения на фонд заработной платы, потому что иначе агенты ничем не объеди- нены. Такие организационные системы называются системами со
    слабо связанными агентами. Поэтому добавим ограничение фонда заработной платы R:
    å
    Î
    £
    N
    i
    i
    i
    R
    y )
    (
    s
    . То есть наложим на стимулиро- вание ограничение, что сумма вознаграждений, которые выплачи- ваются агентам, должна быть не больше, чем некоторая известная величина, которую содержательно можно интерпретировать как фонд заработной платы.
    Посмотрим, что при этом изменится. Поведение агентов не из- менится, потому что целевая функция каждого агента зависит толь- ко от его собственных действий. Изменится задача, которую должен решать центр. Центр знает, что при использовании оптимальной системы стимулирования он должен компенсировать затраты каж- дому агенту, но теперь у него есть дополнительное ограничение, и он должен проводить максимизацию не по всем векторам действий агентов, а только по тем из них, которые будут удовлетворять бюд-

    89 жетному ограничению. Задача меняется – нужно проводить макси- мизацию по множеству A' в пересечении с множеством таких векто- ров действий y, что сумма
    å
    ÎN
    i
    i
    i
    y
    c
    )
    (
    £ R, то есть, выполнено бюд-
    жетное ограничение.
    С точки зрения центра по прежнему оптимально каждому из агентов компенсировать затраты на выполнение плана, то есть структура системы стимулирования сохраняется. Целевая функция агентов, по-прежнему, зависит только от системы стимулирования, которую задал центр, и от действия данного агента. И агента не волнует наличие бюджетного ограничения, он производит свой выбор при сообщенной ему системе стимулирования. Получили задачу условной оптимизации:
    H(y) –
    å
    ÎN
    i
    i
    i
    y
    c
    )
    (
    ®
    å
    Î
    £
    Î
    N
    i
    i
    i
    R
    y
    c
    A
    y
    }
    )
    (
    |'
    {
    max
    Все, задача стимулирования решена – она сведена к задаче условной оптимизации. Рассмотрим пример.
    Пример 3.1. Пусть имеются два агента (n = 2), функция дохода центра представляет собой сумму действия агентов:
    2 1
    )
    (
    y
    y
    y
    H
    +
    =
    Функция затрат i-го агента является квадратичной:
    2
    ,
    1
    ,
    2
    )
    (
    2
    =
    =
    i
    r
    y
    y
    c
    i
    i
    i
    i
    , где константа r
    i
    > 0 может интерпретироваться как эффективность деятельности агента, его квалификация – чем больше квалификация, тем меньше затраты.
    Целевая функция центра при использовании компенсаторной системы стимулирования – это сумма действий агентов минус сумма их затрат. Ее можно максимизировать по y
    1
    ³ 0 и y
    2
    ³ 0 при ограни- чении, что сумма компенсируемых затрат не больше, чем фонд заработной платы:
    ï
    ï
    î
    ï
    ï
    í
    ì
    £
    +
    ®
    -
    -
    +
    ³
    2 2
    ;
    max
    2 2
    2 2
    2 1
    2 1
    0
    )
    ,
    (
    2 2
    2 1
    2 1
    2 1
    2 1
    R
    r
    y
    r
    y
    r
    y
    r
    y
    y
    y
    y
    y
    Задача стимулирования сводится к определению двух парамет- ров:
    1
    y
    и
    2
    y
    . Найдем эти параметры:

    90 2
    )
    (
    2
    )
    (
    ,
    ,
    2 2
    max
    2 1
    2
    max
    1 2
    max
    2 1
    max
    1
    R
    r
    y
    r
    y
    r
    y
    r
    y
    £
    +
    =
    =
    Это безусловный максимум целевой функции: если продиффе- ренцировать по
    1
    y
    , то получим 1 –
    1
    y
    /
    1
    r
    . Затраты первого агента равны r
    1
    / 2. Значит, если
    R
    r
    r
    £
    +
    2 2
    1
    , то оптимальное решение –
    x
    1
    = r
    1
    , x
    2
    = r
    2
    . Если
    R
    r
    r
    >
    +
    2 2
    1
    , то бюджетное ограничение стано- вится существенным и тогда можно пользоваться методом множи- телей Лагранжа.
    Запишем лагранжиан:
    R
    r
    y
    r
    y
    y
    y
    m
    -
    ÷÷
    ø
    ö
    çç
    è
    æ
    +
    m
    +
    -
    +
    2 2
    2 1
    2 1
    2 1
    2 2
    )
    1
    (
    )
    (
    Дифференцируя его по
    1
    y
    , получаем:
    1 1
    )
    1
    (
    1
    r
    y
    m
    +
    -
    . Приравни- вая нулю, находим оптимальное действие в зависимости от множи- теля Лагранжа. Следовательно,
    1 1
    )
    1
    (
    r
    y
    m
    +
    =
    . Аналогично
    2 2
    )
    1
    (
    r
    y
    m
    +
    =
    . Подставляем в бюджетное ограничение, которое выполняется как равенство:
    R
    r
    r
    r
    r
    =
    m
    +
    +
    m
    +
    2 2
    2 2
    1 2
    1 2
    2
    )
    1
    (
    2
    )
    1
    (
    . Откуда
    2 1
    2
    )
    1
    (
    r
    r
    R
    +
    =
    m
    +
    . Следовательно, оптимальное решение будет иметь следующий вид
    2 1
    2
    r
    r
    R
    r
    x
    i
    i
    +
    =
    , i = 1, 2.
    Итак, если фонд заработной платы меньше чем полусумма кон- стант r
    1
    и r
    2
    , то оптимально назначать планы x
    1
    = r
    1
    , x
    2
    = r
    2
    ; если фонд заработной платы больше полусуммы r
    1
    и r
    2
    , то оптимальны планы
    2 1
    2
    r
    r
    R
    r
    x
    i
    i
    +
    =
    , i = 1, 2. Обратите внимание, что решение

    91 получилось непрерывным, т.е. при R, равном полусумме r
    1
    и r
    2
    , решения «состыковываются».
    ·
    Отметим, что, рассматривая задачу стимулирования слабо свя- занных агентов, на самом деле 99 % процентов времени мы потра- тили на решение задачи согласованного планирования, то есть на решение соответствующей задачи условной оптимизации, которая к управлению «никакого отношения не имеет», потому что мы вос- пользовались готовым результатом, что в оптимальной компенса- торной функции стимулирования вознаграждение в точности равно затратам, и при ней агенты будут выполнять план.
    Будем усложнять задачу дальше. Логика была такая: от одно- элементной системы перейти к такой, где все агенты были незави- симы и ограничений не было, затем добавить ограничение на фонд заработной платы. Предположим теперь, что агенты сильно связаны, и эту связь будем отражать следующим образом: предположим, что затраты каждого агента зависят не только от его собственных дейст- вий, но и от действий других агентов. Соответственно вознагражде- ние каждого агента будет зависеть от действий всех агентов.
    Целевая функция центра:
    ,
    )
    (
    )
    (
    )
    ),
    (
    (
    å
    Î
    s
    -
    =
    ×
    s
    N
    i
    i
    y
    y
    H
    y
    Ф
    где
    )
    ...,
    ,
    (
    1
    n
    y
    y
    y
    =
    , целевые функции агентов:
    N
    i
    y
    с
    y
    y
    f
    i
    i
    i
    Î
    - s
    =
    ×
    s
    ),
    (
    )
    (
    )
    ),
    (
    (
    Мы предположили, что на нижнем уровне агенты взаимодейст- вуют таким образом, что затраты каждого зависят от вектора дейст- вий всех, и вознаграждение каждого, в общем случае, зависит от вектора действий всех. Это сильно осложняет дело, так как непо- средственно воспользоваться результатом анализа одноэлементной модели уже невозможно.
    Давайте формулировать задачу управления. Как агенты будут принимать решения? Первый ход делает центр: сообщает им систе- му стимулирования, то есть каждому агенту говорит зависимость вознаграждения от вектора действий всех агентов. Агенты это узна- ли, дальше они должны выбирать действия. Если выигрыш каждого зависит от действий всех, значит, имеет место игра. Исходом игры является ее равновесие, например, равновесие Нэша. Обозначим вектор-функцию стимулирования
    ))
    (
    ...,
    ),
    (
    (
    )
    (
    1
    ×
    s
    ×
    s
    =
    ×
    s
    n
    , и запишем

    92 равновесие игры агентов в зависимости от системы стимулирования, которую использует центр:
    ïþ
    ï
    ý
    ü
    ïî
    ï
    í
    ì
    Î
    "
    Î
    "
    -
    ³
    -
    ¢
    Î
    =
    ×
    -
    -
    i
    i
    N
    i
    i
    i
    N
    i
    i
    i
    N
    i
    N
    i
    N
    N
    A
    y
    N
    i
    y
    y
    c
    y
    y
    y
    c
    y
    A
    y
    E
    ,
    )
    ,
    (
    )
    ,
    (
    )
    (
    )
    (
    ))
    (
    (
    s
    s
    s
    Теперь сформулируем задачу управления:
    )
    (
    ))
    (
    (
    max
    ]
    )
    (
    )
    (
    [
    min
    ×
    Î
    ×
    Î
    ®
    -
    å
    s
    s
    s
    N
    i
    i
    E
    y
    y
    y
    H
    N
    Целевая функция центра зависит от функции стимулирования и от действий агентов. Агенты при фиксированной функции стимули- рования выберут действия, являющиеся равновесием Нэша их игры.
    Возьмем гарантированный результат целевой функции центра по множеству равновесий Нэша игры агентов при заданной системе стимулирования. Эта конструкция будет уже зависеть только от функции стимулирования. Дальше нужно ее максимизировать выбо- ром вектор-функции стимулирования, то есть центр должен найти такой набор стимулирований агентов, который бы максимизировал гарантированное значение его целевой функции на множестве рав- новесий Нэша игры агентов.
    Вид этой задачи почти такой же, как и одноэлементной, только раньше (в одноэлементной системе) не было суммы и было множе- ство максимумов целевой функции единственного агента. В много- элементной системе вместо множества максимумов целевой функ- ции агента появляется множество равновесий Нэша, и появляется сумма стимулирований агентов. Задача сложнá, так как мы сначала должны взять минимум некоторого функционала по множеству, которое зависит от вектор-функции, которая входит в этот функцио- нал, а потом минимизировать выбором вектор-функции.
    Если посмотреть на определение множества равновесий Нэша, то увидим, что это множество зависит от вектор-функции и опреде- ляется бесконечной системой неравенств. При решении сложных задач важно угадать решение. Решение этой задачи угадывалось достаточно долго – около 15 лет (сформулировали ее в 1984 году, а решение нашли в 1998). Идея на самом деле очень простая: если в одноэлементной задаче есть компенсаторная система стимулирова- ния – простая и понятная, то какую надо придумать компенсатор- ную систему стимулирования для решения многоэлементной зада- чи?
    Затраты агента зависят от того, что делает он сам, и от действий всех остальных агентов. Центр говорит: «выполняй план, обещаю

    93 компенсировать фактические затраты по выполнению плана, незави- симо от того, что сделают остальные агенты» (принцип декомпози- ции – см. выше):
    î
    í
    ì
    ¹
    =
    =
    -
    ,
    0
    ;
    ),
    ,
    (
    )
    ,
    (
    i
    i
    i
    i
    i
    i
    i
    i
    x
    y
    x
    y
    y
    x
    c
    y
    x
    s
    , i
    Î N.
    Убедимся, что при такой системе стимулирования выполнение плана является равновесием Нэша. Для этого надо подставить эту систему стимулирования в определение равновесия Нэша и дока- зать, что вектор x является равновесием Нэша. При выполнении плана i-ый агент получает компенсацию затрат, и несет такие же затраты. В случае невыполнения плана он получает нулевое возна- граждение и несет какие-то затраты:
    )
    ,
    (
    0
    )
    ,
    (
    )
    ,
    (
    i
    i
    i
    i
    i
    i
    i
    i
    i
    x
    y
    c
    x
    x
    c
    x
    x
    c
    -
    -
    -
    -
    ³
    -
    , y
    i
    ¹ x
    i
    Получили выражение «минус затраты меньше нуля». Это нера- венство будет выполняться при любых обстановках, то есть каждо- му агенту выгодно выполнять план, независимо от того, что делают другие. Вспомним, что доминантная стратегия агента – это такое его действие, которое доставляет максимум целевой функции, незави- симо от действий остальных агентов. В данном случае выполнение плана будет максимизировать целевую функцию агента независимо от действий остальных, то есть выполнение плана будет равновеси- ем в доминантных стратегиях.
    Итак, мы доказали, что предложенная компенсаторная система стимулирования реализует заданный вектор планов как равновесие в доминантных стратегиях игры агентов. Можно ли заставить агентов выбрать какой-либо вектор действий как равновесие их игры, и заплатить им в сумме меньше, чем сумма их затрат (целевая функ- ция центра зависит от суммы стимулирований с минусом, хотелось бы эту сумму минимизировать). Штрафы центр не может наклады- вать, так как стимулирование неотрицательное (может наказать, только ничего не платя). Можно ли неотрицательным стимулирова- нием побудить агентов выбрать какой-то вектор действий, и запла- тить им сумму меньше, чем сумма их затрат. Утверждается, что нет!
    Введем предположение, что затраты агента в случае выбора им нулевого действия равны ноль, независимо от того, что делают остальные:
    0
    )
    ,
    0
    (
    ,
    =
    Î
    "
    -i
    i
    i
    i
    y
    c
    A
    y
    , i
    Î N.
    Целевая функция каждого агента – вознаграждение минус за- траты. Фиксируем некоторый вектор действий, который центр хочет

    94 от агентов добиться. Если сумма стимулирований по реализации этого вектора меньше чем сумма затрат агентов, то это значит, что найдется хотя бы один агент, у которого вознаграждение будет меньше затрат, что противоречит предположению о неотрицатель- ности затрат и возможности каждого агента обеспечить себе нуле- вые затраты выбором нулевого действия.
    Значит, помимо того, что компенсаторная система стимулиро- вания реализует вектор планов как равновесие в доминантных стра- тегиях игры агентов, при этом центр платит минимально возможную величину. Значит, эта система стимулирования оптимальна. Оста- лось найти, каким должен быть вектор планов. Также как и в одно- элементной модели, нужно в целевую функцию центра подставить вместо стимулирования затраты агентов и минимизировать полу- ченное выражение выбором плана:
    A
    y
    N
    i
    i
    y
    c
    y
    H
    ¢
    Î
    Î
    ®
    ú
    û
    ù
    ê
    ë
    é
    -
    å
    max
    )
    (
    )
    (
    То есть, нужно найти такое допустимое действие, которое максими- зировало бы прибыль центра, и назначить это действие в качестве плана, подставив ее в систему стимулирования. Задача решена!
    Обратите внимание, что здесь, как и в одноэлементной модели, как и в системе со слабо связанными агентами, имея результат об оптимальности компенсаторных систем стимулирования, дальше решаем только задачу планирования. В данном случае доказательст- во оптимальности декомпозирующей системы стимулирования было сложнее, чем в одноэлементной системе, потому что имеет место игра агентов. Но мы угадали решение, и эту игру как бы «декомпо- зировали на части», то есть за счет управления центр декомпозиро- вал взаимодействие агентов. Использование таких управлений, которые декомпозируют взаимодействие агентов, превращают их игру в игру, в которой существует равновесие в доминантных стра- тегиях, называется принцип декомпозиции игры агентов.
    3.4. Распределенный контроль
    Усложним задачу дальше. Решим задачу управления для струк- туры, приведенной на
    Рис. 3.12
    . Такие структуры называются сис-
    темами с распределенным контролем. Это – перевернутая веерная структура, в которой один агент подчинен нескольким начальникам.

    95
    А
    Ц
    к
    Ц
    1

    Рис. 3.12. Система с распределенным контролем
    Ситуация достаточно распространена, в частности, в проектном управлении: агент, который работает по какому-то проекту, подчи- нен руководителю проекта; в то же время, он работает в подразделе- нии и подчинен соответствующему функциональному руководите- лю. Или преподаватель работает на кафедре, а его приглашают читать лекции на другую кафедру или факультет.
    Система с распределенным контролем характеризуется тем, что, если в веерной структуре имела место игра агентов, то в этой струк- туре имеет место игра центров. Если добавить сюда еще нескольких агентов, каждый из которых подчинен разным центрам, то получит- ся игра и тех, и других на каждом уровне (см. Рис. 1.12д). Опишем модель, которая сложнее рассмотренной выше многоэлементной системы, так как, если игра агентов заключается в выборе действий, а действием был скаляр, то игра центров заключается в выборе функций стимулирования агента, зависящих от его действий, то есть в игре центров стратегией каждой из них является выбор функции.
    Целевые функции центров имеет следующий вид:
    {
    }
    ;
    ...,
    ,
    2
    ,
    1
    ),
    (
    )
    (
    )
    ),
    (
    (
    k
    K
    i
    y
    y
    H
    y
    Ф
    i
    i
    i
    i
    =
    Î
    s
    -
    =
    ×
    s и представляют собой разность между доходом и стимулированием, выплачиваемым агенту, где K – множество центров
    Целевая функция агента:
    )
    (
    )
    (
    )
    ),
    (
    (
    y
    с
    y
    y
    f
    K
    i
    i
    i
    - s
    =
    ×
    s
    å
    Î
    , то есть он получает стимулирования от центров, которые суммируются, и несет затраты.
    Предположим, что действия агента принадлежат множеству, ко- торое будет уже не отрезком действительной оси (часы, шт. и т.д.), а может быть многомерным множеством (отражать разные виды деятельности), тогда функция затрат будет отображать множество действий во множество действительных чисел.

    96
    Определим множество выбора агента – множество максимумов его целевой функции в зависимости от стимулирования со стороны центров:
    )
    (
    )
    (
    max
    Arg
    )
    )
    (
    (
    ú
    û
    ù
    ê
    ë
    é
    -
    =
    ×
    å
    Î
    Î
    y
    с
    y
    P
    K
    i
    i
    A
    y
    s
    s
    Поведение агента понятно: в зависимости от вектора стимули- рований агент будет выбирать действие, которое будет максимизи- ровать его целевую функцию, представляющую собой разность между его суммарным вознаграждением и затратами.
    Тогда центры должны решить, какое стимулирование назначать агенту. Причем, каждый должен решить сам, как ему управлять подчиненным, что ему обещать. Центры оказываются «завязанны- ми» на одного подчиненного, и что он будет делать, зависит от того, что ему предложит каждый из центров.
    Каждый из центров не может рассуждать по отдельности, то есть, если он попросит от агента что-то сделать, то тот не обязатель- но это сделает, так как другой центр может попросить от него друго- го и пообещает заплатить больше. Таким образом, центры вовлече- ны в игру и должны прийти к равновесию, подбирая соответствующие функции стимулирования и прогнозируя, какие действия в ответ на вектор стимулирований будет выбирать агент.
    Задача достаточно громоздка, поэтому приведем несколько из- вестных результатов, которые позволяют ее упростить.
    Первый результат говорит следующее: если рассматривается игра центров, то в теории игр принято использовать два подхода: равновесие Нэша и эффективность по Парето. В системе с распреде- ленным контролем множество равновесий Нэша пересекается с множеством Парето, то есть можно из множества равновесий Нэша выбрать такое, которое является эффективным по Парето. Есть теорема [5], которая гласит, что существует класс простых функций стимулирования, которые гарантируют Парето-эффективность равновесия Нэша игры центров. Эти функции стимулирования имеют компенсаторный вид:
    K
    i
    x
    y
    x
    y
    y
    x
    i
    i
    Î
    î
    í
    ì
    ¹
    =
    l
    =
    s
    ,
    ,
    0
    ,
    )
    ,
    (
    Содержательно эта система стимулирования значит, что суще- ствует некоторое действие агента (план x), относительно которого центры договорились выплачивать агенту стимулирование в случае, если он выберет это действие. При этом i-ый центр платит
    l
    i
    за выполнение плана. В случае, если агент выполняет другое действие,

    97 то он не получает вознаграждения вовсе. Таким образом, этот ре- зультат позволяет нам перейти от игры центров, в которой стратеги- ей каждого является выбор функции, к игре, в которой стратегией является выбор одного действия агента и размера вознаграждения.
    Причем, относительно вектора вознаграждений можно сказать следующее: посмотрим на целевую функцию агента: он получает сумму вознаграждений и несет какие-то затраты. Если затраты в нуле равны нулю, то с точки зрения агента сумма стимулирований должна быть не меньше, чем затраты:
    )
    (x
    c
    K
    i
    i
    ³
    å
    Î
    l
    С другой стороны, Парето-эффективными с точки зрения цен- тров являются такие размеры вознаграждений, которые нельзя уменьшить, не изменив действия агента. Значит, сумма вознаграж- дений должна быть в точности равна затратам агента.
    Пользуясь этим результатом, охарактеризуем равновесие игры центров, то есть найдем такие условия, при которых они договорят- ся, чего хотят добиться от агента. Для этого рассчитаем следующие величины:
    [
    ]
    )
    (
    )
    (
    max
    y
    c
    y
    H
    W
    i
    A
    y
    i
    -
    =
    Î
    , i
    Î K.
    Если i-ый центр сам взаимодействует (работает в одиночку) с агентом, то он будет использовать компенсаторную систему стиму- лирования, и прибыль, которую он получит, будет равна величине
    W
    i
    (это следует из решения одноэлементной задачи – см. выше).
    Запишем условия того, что каждому центру будет выгодно взаимодействовать с другими центрами (совместно управлять аген- том), по сравнению с индивидуалистическим поведением, когда он говорит: пусть подчиненный работает только на меня. Запишем это условие следующим образом:
    K
    i
    W
    x
    H
    i
    i
    i
    Î
    ³
    -
    ,
    )
    (
    l
    . В случае если центры взаимодействуют друг с другом, i-ый центр получает доход
    H
    i
    (x) от выбора агентом действия x и платит агенту
    l
    i
    . При этом значение его целевой функции должно быть не меньше, чем если бы он взаимодействовал с агентом в одиночку, что дало бы ему полез- ность W
    i
    . Кроме того, должно быть выполнено условие равенства суммы вознаграждений агента его затратам. Обозначим:
    þ
    ý
    ü
    î
    í
    ì
    Î
    ³
    -
    =
    ³
    Î
    =
    L
    å
    Î
    K
    i
    W
    x
    H
    x
    c
    A
    x
    i
    i
    i
    K
    i
    i
    ,
    )
    (
    ),
    (
    |
    0
    ,
    l
    l
    l
    r
    – множество действий агента и векторов выплат его деятельности со стороны центров, таких, что сумма этих выплат в точности равна затратам агента по реализации этого действия, и каждый из центров получает

    98 выигрыш, не меньший, чем если бы он действовал в одиночку. Эта область представляет собой подмножество декартова произведения множества A на k-мерный положительный ортант.
    Множество
    L есть множество компромисса для системы с рас- пределенным контролем. Она содержательно похожа на область компромисса в игре одного центра и одного агента.
    Утверждение 3.3.
    1) Если область компромисса
    L не пуста, то имеет место со-
    трудничество центров: центры могут договориться, какой вектор действия агенту выбирать и кто сколько должен заплатить;
    2) Возможна ситуация, когда эта область
    L пуста. Тогда это бу- дет ситуация конкуренции центров.
    В случае конкуренции исходом игры центров в содержательном смысле будет следующее: начальники между собой не договори- лись, как использовать подчиненного. Тогда первый начальник считает, что бы он хотел получить от подчиненного, действуя в одиночку. Аналогично поступают остальные. Каждый из начальни- ков говорит подчиненному: «Давай ты будешь работать на меня – я тебе плачу столько-то». Начинает он с компенсации затрат. Каждый сказал, подчиненный сидит на нуле. Кто-то из начальников догады- вается и говорит: «я тебе оплачу затраты и еще надбавку при усло- вии, что ты будешь работать на меня». Это лучше для подчиненного, так как он получает не ноль, а что-то сверх компенсации затрат.
    Начинается конкуренция центров, каждый центр «перетягивает» на себя агента. В такой ситуации наилучшее положение – у агента. Из центров победит тот, у которого больше значение W
    i
    , то есть пара- метр, характеризующий прибыль, которую получает центр от дейст- вий агента. Кто более эффективно взаимодействует с агентом, тот его и «переманит».
    Если упорядочить центров в порядке убывания W
    i
    :
    k
    W
    W
    W
    ³
    ³
    ³
    K
    2 1
    , то победит тот, у кого W
    i
    максимально, запла- тив агенту, помимо компенсации затрат, W
    2
    плюс бесконечно малую величину, чтобы переманить агента у (второго в данном упорядоче- нии) центра.
    Ситуация упорядочения центров по эффективности, когда по- беждает тот, кто обладает максимальной эффективностью, причем побеждает по цене следующего за ним, называется аукционным
    решением (аукцион второй цены).

    99
    Найдем условия существования режима сотрудничества. Вве- дем следующую величину: максимум суммарного выигрыша цен- тров, то есть определим действие агента, которое доставляет макси- мум суммы доходов центров минус затраты агента:
    ú
    û
    ù
    ê
    ë
    é
    -
    =
    å
    Î
    Î
    )
    (
    )
    (
    max
    0
    y
    c
    y
    H
    W
    N
    i
    i
    A
    y
    Утверждение 3.4. Режим сотрудничества может быть реализо- ван, то есть область компромисса не пуста, тогда и только тогда, когда сумма индивидуальных выигрышей центров от их деятельно- сти по отдельности не больше, чем суммарный выигрыш системы при совместном взаимодействии центров:
    å
    Î
    £
    Û
    ¹
    L
    K
    i
    i
    W
    W
    0 0
    Содержательная интерпретация утверждения 3.4 следующая: у системы должно существовать свойство эмерджентности (целое больше, чем сумма частей). В данном случае целое – сотрудничество центров – должно быть больше, чем сумма частей. То есть, если в системе присутствует синергетический эффект, то центры смогут прийти к компромиссу.
    Задачи и упражнения к главе 3
    3.1. В организационной системе, состоящей из одного центра и одного агента, функция затрат агента имеет вид c(y) = y
    2
    / 2 r, y
    ³ 0, функция дохода центра – H(y) = a
    y
    . Запишите целевые функции центра и агента, «линеаризовав» функцию дохода центра [4].
    3.2. В условиях задачи 1.1 H(y) = y [4].
    3.2.1. Решите задачу стимулирования в рамках гипотезы благо- желательности. Нарисуйте область компромисса. Исследуйте, как изменятся результаты, если отказаться от гипотезы благожелатель- ности.
    3.2.2. Найдите зависимость границ области компромисса от ве- личины резервной заработной платы агента.
    3.2.3. Решите задачу стимулирования, если y
    Î [0; A
    +
    ], где A
    +
    – известная положительная константа.
    3.2.4. Решите задачу стимулирования, если размер вознаграж- дения ограничен сверху величиной R > 0.
    3.2.5. Найдите оптимальные системы стимулирования С-типа,
    L-типа, D-типа, LL-типа, L+С-типа.

    100 3.2.6. Найдите минимальные ограничения механизма стимули- рования, необходимые для реализации заданного действия.
    3.2.7. Зависит ли решение задачи определения оптимального плана от мотивационной надбавки d?
    3.2.8. Докажите, что в раках введенных в раздел 3.1 предполо- жений вычисление максимума при определении оптимального плана
    x
    *
    (см. раздел 3.2) можно осуществлять по всей положительной полуоси, а не по множеству S.
    3.3. Найдите оптимальную систему стимулирования L-типа в случае вогнутой функции затрат агента [4].
    3.4. Докажите эквивалентность представления целевой функции агента в виде «стимулирование минус затраты» и «доход минус штрафы». Проиллюстрируйте на примере задачи 1.2.
    3.5
    *
    . Пусть у агента имеются два допустимых действия:
    A = {y
    1
    ; y
    2
    }, A
    0
    = {z
    1
    ; z
    2
    }, вероятности P =
    p
    p
    p
    p
    -
    -
    1 1
    ,1/2 < p
    £ 1.
    Затраты агента по выбору первого и второго действия равны c
    1
    и c
    2
    соответственно, c
    2
    ³ c
    1
    ; ожидаемый доход центра от выбора агентом первого и второго действия – H
    1
    и H
    2
    . Найдите оптимальный кон- тракт [4].
    3.6
    *
    . В дилемме «доход – свободное время» функция полезности
    u(q, t) = b q t, t Î [0; 16], нетрудовые доходы равны q
    0
    . Определите оптимальную с точки зрения агента продолжительность рабочего времени. Исследуйте эффекты дохода и замещения [4].
    3.7. Исследуйте сравнительную эффективность систем стиму- лирования в задаче 3.2.5.
    3.8. Для задачи 3.2.5 нарисуйте графики «доход – свободное время» [4].
    3.9. Приведите примеры различных зависимостей желательной продолжительности рабочего времени от ставки оплаты [4].
    3.10. Опросите нескольких человек и постройте по результатам опросов зависимости желательной продолжительности рабочего времени респондентов от ставки оплаты. Проинтерпретируйте ре- зультаты в терминах задачи стимулирования [4].
    3.11. В организационной системе с одним центром и слабо свя- занными агентами функции затрат агентов:
    c
    i
    (y
    i
    ) =
    2
    i
    y
    / 2 r
    i
    , i
    Î N = {1, 2, …, n}, а функция дохода центра –
    å
    Î
    a
    =
    N
    i
    i
    i
    y
    y
    H )
    (
    , где {
    a
    i
    }
    i
    Î N
    – положительные константы. Решите

    101 задачу стимулирования при заданном ограничении сверху на фонд заработной платы. Найдите оптимальный размер фонда заработной платы [4].
    3.12. Решите задачу стимулирования в системе с одним центром и двумя агентами, имеющими функции затрат: c
    i
    (y) =
    i
    i
    i
    2r
    y
    y
    2 3
    )
    (
    -
    +
    a
    ,
    i = 1, 2, где
    a – некоторый параметр, отражающий степень взаимоза- висимости агентов. Функция дохода центра – H(y) = y
    1
    + y
    2
    , а фонд заработной платы ограничен величиной R [4].
    3.13. Имеются два агента с функциями затрат c
    i
    (y
    i
    ) = y
    i
    2
    / 2 r
    i
    ,
    i = 1, 2, а функция дохода центра равна сумме действий агентов. На индивидуальные вознаграждения наложены независимые ограниче- ния (существует «вилка» заработной платы): d
    1
    £ s
    1
    £ D
    1
    , d
    2
    £ s
    2
    £ D
    2
    , и, кроме этого, существует одно глобальное (общее ограничение):
    s
    2
    ³ b
    s
    1
    (второй агент имеет более высокую квалификацию, чем первый: r
    2
    £ r
    1
    , и поэтому за одни и те же действия должен получать большее вознаграждение: b ³ 1). Найдите оптимальное решение задачи стимулирования.
    3.14. Найдите равновесие Нэша игры агентов в системе с одним центром и n агентами Целевая функция i-го агента f
    i
    (y, r
    i
    ) представ- ляет собой разность между доходом h
    i
    (y) от совместной деятельно- сти и затратами c
    i
    (y, r
    i
    ), где r
    i
    – параметр эффективности (тип) аген- та, то есть f
    i
    (y, r
    i
    ) = h
    i
    (y) – c
    i
    (y, r
    i
    ), i
    Î N= {1, 2, …, n}. Функции дохода и затрат: h
    i
    (y) = l
    i
    q Y, i Î N, c
    i
    (y, r
    i
    ) =
    )
    2(
    2
    å
    ¹
    ±
    i
    j
    j
    i
    i
    i
    y
    r
    y
    b
    , i
    Î N, где Y =
    å
    ÎN
    i
    i
    y
    ,
    1
    =
    l
    å
    ÎN
    i
    i
    Для случая, когда в знаменателе стоит знак «–», предполагается, что
    å
    ¹
    <
    i
    j
    i
    i
    j
    r
    y
    b
    . Решите задачу стимулиро- вания в случае двух агентов, считая, что центр использует пропор- циональные системы индивидуального стимулирования со ставками l
    1
    и l
    2
    [4].
    3.15
    *
    . Найдите оптимальную аккордную систему стимулирова- ния
    s
    i
    (y
    1
    , y
    2
    ) =
    î
    í
    ì
    <
    +
    ³
    +
    x
    y
    y
    x
    y
    y
    C
    i
    2 1
    2 1
    ,
    0
    ,
    двух агентов, имеющих функции затрат
    c
    i
    (y
    i
    ) =
    2
    i
    y
    / 2 r
    i
    , где r
    i
    – тип i-го агента, y
    i
    Î
    +
    Â
    1
    , i = 1, 2 [4].

    102
    3.16. Найдите оптимальную систему стимулирования за резуль- тат коллективной деятельности z =
    å
    ÎN
    i
    i
    y
    , H(z) = z, агентов, имею- щих функции затрат c
    i
    (y
    i
    ) =
    2
    i
    y
    / 2 r
    i
    , i
    Î N. Функция дохода центра
    H(z) = z [4].
    3.17. Решите задачу 3.16, если c
    i
    (y) =
    i
    i
    i
    r
    y
    y
    2
    )
    (
    2
    -
    +
    a
    , i = 1, 2.
    3.18. Найдите оптимальную унифицированную систему стиму- лирования в условиях задачи 3.16 [4]..
    3.19
    *
    . Найдите оптимальную унифицированную ранговую сис- тему стимулирования трех агентов, когда функция дохода центра равна сумме действий агентов, а функции затрат агентов: c
    i
    (y
    i
    ) = k
    i
    y
    i
    ,
    k
    1
    > k
    2
    > k
    3
    [4].
    3.20
    *
    . Найдите оптимальную соревновательную ранговую сис- тему стимулирования в условиях задачи 3.19 [4].
    3.21
    *
    . Найдите оптимальное число одинаковых агентов, имею- щих функции затрат c(y) = y
    2
    / 2 b, если доход центра пропорциона- лен сумме действий агентов. Как изменится оптимальное решение, если целевую функцию центра домножить на убывающую функцию числа агентов (придумайте самостоятельно примеры таких функций и исследуйте их) [4].
    3.22
    *
    . Решите задачу 3.21 (придумайте самостоятельно примеры и исследуйте их) в предположении, что для фиксированного множе- ства агентов центр должен определить множество агентов, вклю- чаемых в состав системы и обеспечить им определенный уровень полезности, а остальным агентам (не включаемым в состав системы) он должен обеспечить другой фиксированный уровень полезности
    [4].
    3.23. Найдите область компромисса для организационной сис- темы с распределенным контролем, в которой c(y) = y, H
    i
    (y) = a
    i
    y, a
    i
    ³ 1, i Î K, k = 2 [5].
    3.24. Найдите область компромисса для организационной сис- темы с распределенным контролем, в которой k = 2, c(y) = y
    2
    ,
    H
    1
    (y) = b – a
    1
    y, H
    2
    (y) = a
    2
    y [5].
    3.25. Найдите область компромисса для организационной сис- темы с распределенным контролем, в которой k = 2, c(y) = y,
    H
    i
    (y) = yy
    2
    / 2 r
    i
    , i
    Î K [5].

    103
    3.26
    *
    . Исследуйте в рамках задачи 3.24 целесообразность введе- ния дополнительного уровня управления – метацентра [4, 5].
    3.27
    *
    . Организационная система состоит из двух участников, имеющих целевые функции W(z, y) = yz, w(z, y) = zy
    2
    и выби- рающих, соответственно, z
    ³ 0 и y ³ 0. Найти выигрыши участников в иерархических играх Г
    0

    3
    (см. главу 1) при условии, что правом первого хода обладает первый участник. Что изменится, если пра- вом первого хода обладает второй участник [5]?
    3.28
    *
    . Организационная система состоит из двух участников, имеющих целевые функции f
    i
    = y
    i
    + a
    i
    (1 – y
    -i
    ), y
    i
    Î [0; 1], i = 1, 2.
    Найдите выигрыши участников в иерархических играх Г
    0

    3
    (см. главу 1) с побочными платежами и без побочных платежей при различных правах первого хода [5].
    3.29. Докажите, что «неравенству треугольника» удовлетворяют все функции штрафов, вогнутые на полуосях [2].
    3.30
    *
    . Приведите определения следующих понятий и содержа- тельные примеры: функция стимулирования, гипотеза благожела- тельности, мотивационная надбавка, область компромисса, принцип компенсации затрат, принцип декомпозиции, принцип агрегирова- ния, система стимулирования (скачкообразная, компенсаторная, линейная, производная, составная), оптимальный план, система со слабо связанными агентами, бюджетное ограничение, система с распределенным контролем, режим сотрудничества, режим конку- ренции.
    Литература к главе 3
    1.
    *
    Баркалов С.А., Новиков Д.А., Попов С.С. Индивидуальные стра- тегии предложения труда: теория и практика. – М.: ИПУ РАН, 2002.
    2.
    *
    Бурков В.Н., Кондратьев В.В., Механизмы функционирования организационных систем. – М.: Наука, 1981.
    3.
    *
    Кочиева Т.Б., Новиков Д.А. Базовые системы стимулирования. –
    М.: Апостроф, 2000.
    4.
    *
    Новиков Д.А. Стимулирование в организационных системах. –
    М.: Синтег, 2003.
    5.
    *
    Новиков Д.А., Цветков А.В. Механизмы функционирования организационных систем с распределенным контролем. – М.: ИПУ
    РАН, 2001.

    104
    1   ...   4   5   6   7   8   9   10   11   ...   23


    написать администратору сайта