Главная страница
Навигация по странице:

  • Качественное обсуждение.

  • Задачи и упражнения к главе 5 5.1.

  • ВВедение в теорию управления организационными системами. В теорию управления организационными


    Скачать 1.89 Mb.
    НазваниеВ теорию управления организационными
    АнкорВВедение в теорию управления организационными системами
    Дата21.05.2020
    Размер1.89 Mb.
    Формат файлаpdf
    Имя файлаВВедение в теорию управления организационными системами.pdf
    ТипУчебник
    #124282
    страница15 из 23
    1   ...   11   12   13   14   15   16   17   18   ...   23
    Коррупция. Рассмотрим следующую теоретико-игровую мо- дель коррупции. Пусть имеются n агентов – чиновников, дополни- тельный доход каждого из которых пропорционален сумме полу- ченных им взяток x
    i
    ³ 0, предложение которых будем считать неограниченным, i
    Î N= {1,, n}. Пусть каждый из n агентов ха- рактеризуется своим типом r
    i
    >0, i
    Î N, и тип агента достоверно ему известен, но не известен остальным агентам. Содержательно тип агента может интерпретироваться как субъективное восприятие им
    «силы» штрафов.
    За коррупционную деятельность (x
    i
    ³ 0), вне зависимости от ее размера, на агента может быть наложен штраф
    c
    i
    (x, r
    i
    ), зависящий от действий x = (x
    1
    , x
    2
    , …, x
    n
    )
    Î
    n
    +
    Â
    всех агентов и типа данного агента.
    Таким образом, целевая функция i-го агента имеет вид:
    (5.22) f
    i
    (x, r
    i
    ) = x
    i

    c
    i
    (x, r
    i
    ), i
    Î N.
    Относительно функции штрафов предположим, что она имеет вид:
    (5.23)
    c
    i
    (x, r
    i
    ) =
    j
    i
    (x
    i
    , Q
    i
    (x
    -i
    ), r
    i
    ).
    Содержательно предположение (5.23) означает, что штраф, на- кладываемый на i-го агента, зависит от его действия и от агрегиро- ванной обстановки Q
    i
    (x
    -i
    ) (которая может интерпретироваться как

    175
    «общий уровень коррумпированности остальных чиновников» с точки зрения i-го агента).
    Предположим, что число агентов и общий вид целевых функ- ций являются общим знанием, а относительно параметра
    r = (r
    1
    , r
    2
    , …, r
    n
    )
    Î
    n
    +
    Â
    каждый из агентов имеет иерархию представ- лений: r
    ij
    – представление i-го агента о типе j-го агента, r
    ijk
    – пред- ставление i-го агента о представлениях j-го агента о типе k-го агента и т.д., i, j, k
    Î N.
    Предположим также, что агенты наблюдают общий уровень коррумпированности. Поэтому стабильность информационного равновесия будет иметь место при любых представлениях о типах реальных или фантомных оппонентов, таких, что соответствующее информационное равновесие приводит к одному и тому же значе- нию агрегата Q
    i
    (
    ×) для любого i Î N.
    Тогда, как нетрудно видеть, для целевых функций агентов
    (5.22), (5.23) выполнены условия утверждения 5.8. Поэтому для любого числа агентов и любой структуры информированности все стабильные равновесия в рассматриваемой игре являются истинны- ми. Таким образом, справедливо следующее
    Утверждение 5.7. Пусть набор действий x
    t
    *
    ,
    t Î S
    +
    , – стабильное информационное равновесие в игре (5.22), (5.23). Тогда это истин- ное равновесие.
    Следствие. Уровень коррумпированности в стабильной ситуа- ции не зависит от взаимных представлений коррупционеров о типах друг друга. При этом не важно, являются ли сами эти представления истинными или ложными.
    Отсюда вытекает, что невозможно повлиять на уровень кор- румпированности лишь путем изменения взаимных представлений.
    Поэтому любое стабильное информационное управление приводит к одному и тому же уровню коррумпированности.
    Предположим, что:
    j
    i
    (x
    i
    , Q
    i
    (x
    -i
    ), r
    i
    ) = x
    i
    (Q
    i
    (x
    -i
    ) + x
    i
    ) / r
    i
    , Q
    i
    (x
    -i
    ) =
    å
    ¹i
    j
    j
    x
    , i
    Î N, и все типы одинаковы: r
    1
    = … = r
    n
    = r. Тогда, как нетрудно убедить- ся, равновесные действия агентов таковы: x
    i
    =
    1
    +
    n
    r
    , i
    Î N, а общий уровень коррумпированности составляет
    å
    Î
    +
    =
    N
    i
    i
    n
    nr
    x
    1

    176
    Изменить последнюю величину можно, лишь повлияв непо- средственно на типы агентов.
    Биполярный выбор. Рассмотрим ситуацию, когда агенты из бесконечно большой «популяции» осуществляют выбор между двумя альтернативами, которые будем для общности называть позитивным и негативным полюсами. Это может быть кандидат на выборах (голосовать «за» или «против»), продукт или услуга (поку- пать или нет), этический выбор (поступить «хорошо» или «плохо») и пр.
    В силу бесконечности числа агентов будем считать, что при ре- шении задачи управления всей «популяцией» выбор каждого кон- кретного агента не играет роли, а важна доля агентов, выбирающих позитивный полюс. Иначе это можно сформулировать следующим образом: действием «агрегированного» агента является вероятность
    x выбора им позитивного полюса.
    Примем следующие предположения:
    1) существует n различных типов агентов;
    2) доля агентов i-го типа составляет
    a
    i
    , 0
    £
    a
    i
    £ 1;
    3) действие агента i-го типа задается функцией реакции на ожи-
    дание:
    p(p), p : [0, 1] ® [0, 1], где p – ожидаемая агентами вероятность выбора позитивного полю- са произвольным агентом из «популяции». Иными словами, если агент ожидает, что доля выбравших позитивный полюс составляет p, то его действие x
    i
    определяется следующим образом:
    x
    i
    =
    p
    i
    (p).
    4) пункты 1–3 являются общим знанием среди агентов.
    Пусть х
    i
    Î [0, 1] – действие агента i-го типа. Тогда доля вы- бравших позитивный полюс составляет: p =
    å
    =
    n
    j
    j
    j
    x
    1
    a
    Определим равновесие биполярного выбора как набор действий
    х
    i
    , удовлетворяющих системе соотношений:
    (5.24) х
    i
    =
    p
    i
    å
    =
    n
    j
    j
    j
    x
    1
    )
    (
    a
    , i = 1, …, n.
    В качестве отступления заметим, что соотношения (5.24) явля- ются одной из возможностей описания биполярного выбора. Другие возможные подходы обсуждаются, например, в работах
    В.А. Лефевра [11], Т.А. Таран [28] и др. В этих работах предполага-

    177 ется, что принимающий решение агент осуществляет рефлексию
    первого рода [20], т.е. занимает позицию наблюдателя по отноше- нию к своему поведению, своим мыслям и чувствам. Иными слова- ми, в нем существует несколько соотнесенных друг с другом уров- ней, а итоговое решение определяется как влиянием внешней среды, так и состоянием этих уровней. В данной же работе агент понимает- ся как индивид, т.е. «неделимый», и осуществляет рефлексию вто-
    рого рода – относительно принятия решений оппонентами.
    Вернемся к обсуждению равновесия биполярного выбора. Заме- тим, что выражения (5.24) задают отображение единичного гипер- куба [0, 1]
    n
    на себя:
    (5.25) (x
    1
    ,…, x
    n
    )
    ® (
    p
    1
    å
    =
    n
    j
    j
    j
    x
    1
    )
    (
    a
    ,…,
    p
    n
    å
    =
    n
    j
    j
    j
    x
    1
    )
    (
    a
    ).
    Если функции
    p
    i
    (
    ×) непрерывны (что представляется довольно естественным предположением), то и отображение (5.25) непрерыв- но. Тогда по теореме о неподвижной точке (см., например, [21]) у системы (5.24) имеется хотя бы одно решение.
    Приведем пример. Пусть существуют агенты трех типов (n = 3), действия которых определяются следующими функциями:
    p
    1
    (p)
    º 1,
    p
    2
    (p) = p,
    p
    3
    (p)
    º 0.
    Содержательно: агенты первого типа независимо ни от чего вы- бирают позитивный полюс, агенты третьего типа – негативный. Что касается агентов второго типа, то они колеблются, и их действия совпадают с ожидаемым действием «популяции» в целом.
    Система (5.24) в данном случае сводится к соотношениям:
    x
    1
    = 1, x
    2
    =
    a
    1
    x
    1
    +
    a
    2
    x
    2
    +
    a
    3
    x
    3
    , x
    3
    = 0, откуда (здесь и далее полагаем, что 0 <
    a
    i
    <1, i = 1, 2, 3):
    x
    1
    = 1, x
    2
    =
    2 1
    1
    a
    a
    -
    , x
    3
    = 0.
    При этом:
    (5.26) p =
    a
    1
    x
    1
    +
    a
    2
    x
    2
    +
    a
    3
    x
    3
    =
    a
    1
    +
    a
    2 2
    1 1
    a
    a
    -
    Предположим теперь, что некий управляющий орган – центр – имеет возможность повлиять на ситуацию и стремится увеличить вероятность позитивного выбора в «популяции» в целом (т.е. вели- чину p). Для этого центр может повлиять на агентов второй либо третьей группы (агенты первой группы и так выбирают x
    1
    = 1).
    Пусть центр может повлиять на третью группу, переведя долю y ее

    178 членов во вторую и затратив некий ресурс (например, финансовый) в объеме C
    2
    y. Центр может также повлиять на вторую группу, изме- нив представления ее членов об
    a
    3
    (независимо от фактического значения этого параметра). Именно, влияние состоит в формирова- нии у второй группы следующего представления: «доля x членов третьей группы перешли во вторую». Затраты на формирование такого представления составляют C
    1
    x.
    Иными словами, центр может изменить либо реальную, либо
    «фантомную», воображаемую долю агентов третьего типа. При этом совокупный ресурс (бюджет), которым располагает центр, составля- ет C.
    Задача центра состоит в следующем: распределить ресурс C
    (т.е. выбрать доли x и y) таким образом, чтобы вероятность p была максимальной. Формально оптимизационная задача центра ставится следующим образом (см. (5.26)):
    (5.27) p(x, y) =
    a
    1
    + (
    a
    2
    +y
    a
    3
    )
    )
    (
    1 3
    2 1
    a
    a
    a
    x
    +
    -
    ® max при ограничениях:
    (5.28) C
    1
    x + C
    2
    y
    £ C, 0 £ x £ 1, 0 £ y £ 1.
    Легко видеть, что задача (5.27) сводится к максимизации функ- ции
    j(x, y) =
    )
    (
    1 3
    2 3
    2
    a
    a
    a
    a
    x
    y
    +
    -
    +
    , которая возрастает по обоим аргумен- там x и y, поэтому первое из ограничений (5.28) обращается в равен- ство. Итак, задача свелась к нахождению максимума функции
    y(x) =
    3 2
    3 1
    3 1
    2 2
    2 1
    3 2
    2 1
    3 2
    1
    /
    /
    1
    )
    (
    1
    /
    )
    (
    a
    a
    a
    a
    a
    a
    a
    a
    a
    x
    x
    C
    C
    C
    C
    C
    C
    x
    C
    x
    C
    C
    -
    -
    -
    +
    =
    +
    -
    -
    +
    Нетрудно видеть, что функция
    y(x) является монотонно возрас- тающей (соответственно, монотонно убывающей или константой), если выражение:
    (5.29)
    1 2
    2
    С
    С
    a
    +
    1 3
    С
    С
    a
    – (1 –
    a
    2
    ) положительно (соответственно, отрицательно или равно нулю).
    Введем обозначения: k
    1
    =
    C
    C
    1
    , k
    2
    =
    C
    C
    2
    . Тогда условие положи- тельности выражения (5.29) запишется в виде:
    (5.30)
    a
    3
    > k
    1

    a
    2
    (k
    1
    + k
    2
    ).

    179
    Далее будем предполагать, что C
    1
    > C и C
    2
    > C. Содержательно это означает, что у центра не так много ресурсов, чтобы всех агентов третьего типа «превратить» в агентов второго типа. При этом опти- мальным будет такой выбор центра, когда весь ресурс вкладывается в увеличение либо реальной, либо воображаемой (при выполнении
    (5.30)) доли агентов второго типа.
    Зависимость оптимального выбора центра от параметров
    (
    a
    2
    ,
    a
    3
    ) изображена на Рис. 5.12.
    a
    2
    a
    3 1
    1 1
    2 1
    1
    -
    +
    -
    k
    k
    k
    2 1
    1
    k
    k
    k
    +
    1
    Рис. 5.12. Оптимальный выбор центра
    На Рис. 5.12 заштрихована область, где выполнено условие
    (5.30), т.е. оптимально для центра весь ресурс направить на измене- ние представлений:
    (5.31) x =
    1
    C
    C
    , y = 0.
    Решение (5.31) отвечает ситуации, когда доля
    a
    2
    агентов второ- го типа достаточно велика. Из Рис. 5.12 видно, что если
    a
    2
    >
    2 1
    1
    k
    k
    k
    +
    , то решение (5.31) всегда оптимально. Если же:

    180
    (5.32)
    1 1
    2 1
    1
    -
    +
    -
    k
    k
    k
    <
    a
    2
    <
    2 1
    1
    k
    k
    k
    +
    , то решение (5.31) оптимально при достаточно больших
    a
    3
    . Содержа- тельно последний случай означает следующее: при некотором диа- пазоне значений параметра
    a
    2
    (т.е. при выполнении (5.32)) опти- мально влиять на представления, когда они слишком пессимистичны (т.е. когда
    a
    3
    достаточно велико и, следовательно, велика вероятность p выбора негативного полюса).
    В заключение отметим, что рассмотрен простейший случай ин- формационного управления в условиях биполярного выбора. Даль- нейшее развитие модели (увеличение числа типов агентов, усложне- ние структуры информированности, усложнение функций реакции на ожидание) и ее сопоставление с наблюдаемыми результатами действий экономических (покупатели) и политических (избиратели) агентов представляется перспективным направлением дальнейших исследований.
    Реклама товара. В настоящем подразделе рассматриваются модели информационного управления, осуществляемого средствами массовой информации (СМИ), на примере рекламы и предвыборных
    технологий.
    Предположим, что имеется агент – объект информационного воздействия. Цель воздействия – сформировать у агента определен- ное отношение к конкретному объекту или субъекту.
    В случае рекламы агентом является потребитель, а объектом – товар или услуга [27]. Требуется, чтобы потребитель приобрел данный товар или услугу.
    В случае предвыборных технологий агентом является избира- тель, а субъектом – кандидат. Требуется, чтобы избиратель проголо- совал за данного кандидата [32].
    Рассмотрим i-го агента. Всех остальных агентов объединим в одного, для обозначения которого будем использовать индекс j.
    Пусть
    q Î W – объективная характеристика объекта, неизвестная достоверно ни одному из агентов. В качестве характеристик могут выступать потребительские свойства товаров, качества кандидатов и т.д.
    Обозначим
    q
    i
    Î W – представления i-го агента об объекте,
    q
    ij
    Î W – его представления о представлениях об объекте j-го агента, и т.д.

    181
    Предположим для простоты, во-первых, что множество воз- можных действий каждого агента состоит из двух действий:
    X
    i
    = X
    j
    = {a; r}, где действие a (accept) соответствует приобретению товара или услуги, голосованию за рассматриваемого кандидата и т.д., а действие r (reject) – отказу от приобретения товара или услуги, голосованию за других кандидатов и т.д. Во-вторых, предположим, что множество
    W состоит из двух элементов, характеризующих качества объекта – g (good) и b (bad), то есть
    W = {g; b}.
    Рассмотрим последовательно (в порядке усложнения) ряд моде- лей поведения агента.
    Модель 0 (рефлексия отсутствует). Предположим, что поведе- ние рассматриваемого агента описывается отображением B
    i
    (
    ×) мно- жества
    W свойств объекта во множество X
    i
    действий агента, то есть
    B
    i
    :
    W ® X
    i
    . Примером такого отображения может служить следую- щее: B
    i
    (g) = a, B
    i
    (b) = r, то есть если агент считает, что товар (канди- дат) хороший, то он его приобретает (отдает за него свой голос), и отвергает в противном случае.
    В данной модели информационное управление заключается в формировании у агента представлений об объекте, приводящих к требуемому выбору. В рассматриваемом примере для того, чтобы агент приобрел товар (проголосовал за требуемого кандидата), необходимо сформировать у него следующие представления:
    q
    i
    = g.
    (Напомним, что в настоящей работе технологии информационного воздействия (то есть способы формирования требуемых представле- ний) не рассматриваются – см. их описание в [4, 27, 32].)
    Модель 1 (первый ранг рефлексии). Предположим, что поведе- ние рассматриваемого агента описывается отображением B
    i
    (
    ×) мно- жеств
    W'
    q
    i
    свойств объекта и
    W '
    q
    ij
    – представлений агента о представлениях других агентов – во множество X
    i
    его действий, то есть B
    i
    :
    W ´ W ® X
    i
    . Примерами такого отображения могут служить следующие:
    B
    i
    (g, g) = a, B
    i
    (g, b) = a, B
    i
    (b, g) = r, B
    i
    (b, b) = r, и
    B
    i
    (g, g) = a, B
    i
    (g, b) = r, B
    i
    (b, g) = a, B
    i
    (b, b) = r.
    В первом случае агент ориентируется на собственное мнение, во втором – на мнение других агентов («общественное мнение»).
    В данной модели информационное воздействие является реф- лексивным управлением. Посредством него у агента формируются представления об объекте и о представлениях других агентов, при-

    182 водящих к требуемому выбору. В рассматриваемом примере для того, чтобы агент приобрел товар (проголосовал за требуемого кандидата), необходимо в первом случае сформировать у него сле- дующие представления:
    q
    i
    = g,
    q
    ij
    – любое, а во втором случае –
    q
    ij
    = g,
    q
    i
    – любое.
    Следует подчеркнуть, что в информационном управлении по- средством СМИ не всегда воздействие направлено на формирование непосредственно
    q
    ij
    – в большинстве случаев воздействие осуществ- ляется косвенно – у агента формируются представления о поведении
    (выбираемых действиях) других агентов, по которым данный агент может восстановить их представления. Примерами косвенного формирования представлений
    q
    ij
    могут служить рекламные лозунги
    «Новое поколение выбирает Pepsi», «В то время, когда все настоя- щие мужики …», обращение к мнению авторитетных людей и т.д.; информация о том, что по опросам общественного мнения значи- тельное число избирателей собирается поддержать данного канди- дата и т.д.
    Модель 2 (второй ранг рефлексии). Предположим, что поведе- ние рассматриваемого агента описывается отображением B
    i
    (
    ×) мно- жеств
    W'
    q
    i
    свойств объекта,
    W'
    q
    ij
    – представлений агента о пред- ставлениях других агентов и
    W'
    q
    iji
    – представлений агента о представлениях других агентов о его собственных представлениях – во множество X
    i
    его действий, то есть B
    i
    :
    W ´ W ´ W ® X
    i
    . Примером такого отображения, в котором проявляются отличные от нулевой и первой моделей свойства, может служить следующее:
    "
    q Î W B
    i
    (
    q, q, g) = a, B
    i
    (
    q, q, b) = r.
    В данном случае агент следует своей «социальной роли» и про- изводит выбор, которого от него ожидают другие агенты.
    В рассматриваемой модели информационное воздействие явля- ется рефлексивным управлением и заключается в формировании у агента представлений о представлениях других агентов о его собст- венных представлениях, приводящих к требуемому выбору. В рас- сматриваемом примере для того, чтобы агент приобрел товар (про- голосовал за требуемого кандидата), необходимо сформировать у него следующие представления:
    q
    iji
    = g.
    Следует подчеркнуть, что информационное воздействие не все- гда направлено на формирование непосредственно
    q
    iji
    – в большин- стве случаев воздействие осуществляется косвенно: у агента форми- руются представления о том, что другие агенты ожидают от него

    183 определенных действий. Речь идет о так называемом социальном влиянии, многочисленные примеры которого можно найти в учеб- никах по социальной психологии [4].
    Примерами косвенного формирования представлений
    q
    iji
    могут служить лозунги «Ты записался добровольцем?», «А ты купил (сде- лал) …?», «В Вашем положении (при Вашем статусе) …?» и т.д.; информация о том, что по опросам общественного мнения большин- ство представителей социальной группы, к которой принадлежит
    (или с которой идентифицирует себя) агент, собирается поддержать данного кандидата и т.д.
    Таким образом, мы рассмотрели простейшие модели информа- ционного управления посредством СМИ, сформулированные в терминах рефлексивных моделей принятия решений и структур информированности. Во всех этих моделях ранг рефлексии не пре- вышал двух (исключением является, наверное, очень редко встре- чающаяся на практике ситуация, когда информационное воздейст- вие направлено на формирование сразу всей информационной структуры, например путем навязывания «общего знания» – «Голо- суй сердцем!», «… – наш выбор!» и т.д.).
    Представить себе реальные ситуации, в которых информацион- ное воздействие направлено на более глубокие компоненты струк- туры информированности, затруднительно. Поэтому перспективным направлением дальнейших исследований является изучение фор- мальных моделей информационного управления (и технологий этого управления) агентами, осуществляющими коллективное принятия решений в условиях взаимосвязанной информированности.
    Предположим теперь, что имеется два типа агентов: агенты первого типа склонны приобретать товар независимо от его рекла- мы, агенты второго типа в отсутствии рекламы приобретать товар не склонны. Обозначим
    q Î [0; 1] – долю агентов первого типа.
    Агенты второго типа, доля которых есть 1
    q, подвержены влиянию рекламы, но не осознают этого. Социальное влияние [4] отразим следующим образом: будем считать, что агенты второго типа с вероятностью p(
    q) выбирают действие a и с вероятностью 1
    p(
    q) выбирают действие r. Зависимость p(×) – вероятности выбора – от доли агентов, склонных приобретать товар, отражает нежелание агентов быть «белыми воронами».
    Если истинная доля
    q агентов первого типа является общим знанием, то агенты ожидают, что именно
    q агентов приобретут товар, а фактически наблюдают, что товар приобрели:

    184
    (5.33) x(
    q) = q + (1 – q) p(q) агентов (напомним, что мы предположили, что влияние рекламы не осознается агентами). Так как "
    q Î [0; 1] q £ x(q), то косвенное социальное влияние оказывается самоподтверждающим – «Смотри- те, оказывается, склонны приобретать товар больше людей, чем мы считали!».
    Проанализируем теперь асимметричную информированность.
    Так как агенты первого типа выбирают свои действия независимо, то можно считать их адекватно информированными как о параметре
    q, так и о представлениях агентов второго типа.
    Рассмотрим модель информационного регулирования, в кото- рой центр, проводящий рекламную акцию, формирует у агентов второго типа представления
    q
    2
    о значении параметра
    q.
    Сделав маленькое отступление, обсудим свойства функции p(
    q).
    Будем считать, что p(
    ×) – неубывающая на [0; 1] функция, такая, что
    p(0) =
    e, p(1) = 1 – g , где e и d – константы, принадлежащие единич- ному отрезку, такие, что
    e £ 1 – d. Содержательно e соответствует тому, что некоторые агенты второго типа «ошибаются» и, даже если считают, что все остальные агенты имеют второй тип, то приобре- тают товар. Константа
    d характеризует в некотором смысле подвер- женность агентов влиянию – у агента второго типа имеется шанс быть самостоятельным и, даже если он считает, что все остальные агенты приобретут товар, отказаться от покупки. Частный случай
    e = 0, d = 1 соответствует независимым агентам второго типа, отка- зывающимся от приобретения товара.
    Так как агенты не подозревают о наличии манипуляции со сто- роны центра (см. принцип доверия в [19]), то они ожидают увидеть, что
    q
    2
    агентов приобретут товар. Фактически же его приобретут:
    (5.34) x(
    q, q
    2
    ) =
    q + (1 – q) p(q
    2
    ).
    Если доход центра пропорционален доле агентов, приобретаю- щих товар, а затраты на рекламу c(
    q, q
    2
    ) являются неубывающей функцией
    q
    2
    , то целевая функция центра (разность между доходом и затратами) в отсутствии рекламы равна (5.33), а в ее присутствии:
    (5.35)
    F(
    q, q
    2
    ) = x(
    q, q
    2
    ) – c(
    q, q
    2
    ).
    Следовательно, эффективность информационного регулирова- ния можно определить как разность между (5.35) и (5.33), а задачу информационного регулирования записать в виде:
    (5.36)
    F(
    q, q
    2
    ) – x(
    q
    2
    max
    q

    185
    Обсудим теперь ограничения задачи (5.36). Первое ограниче- ние:
    q
    2
    Î[0; 1], точнее:
    q
    2
    ³
    q.
    Рассмотрим пример: пусть p(
    q) =
    q
    , c(
    q, q
    2
    ) = (
    q
    2

    q) / 2
    r
    , где r > 0 – размерная константа. Тогда задача (5.36) имеет вид:
    (5.37) (1
    q)(
    2
    q

    q
    )(
    q
    2

    q) / 2
    r
    ®
    ]
    1
    ;
    [
    2
    max
    q
    q Î
    Решение задачи (5.37) имеет вид:
    q
    2
    (
    q) = max{q; r (1 – q)
    2
    }, т.е. при
    q ³
    r
    r
    r
    2 1
    4
    )
    1 2
    (
    +
    -
    +
    информационное регулирование для цен- тра не имеет смысла (затраты на рекламу не окупаются, так как достаточная доля агентов приобретает товар в отсутствие рекламы).
    Наложим теперь дополнительно к
    q
    2
    Î[
    q; 1] требование ста- бильности информационного регулирования, а именно, в предполо- жении наблюдаемости доли агентов, приобретающих товар, будем считать, что агенты второго типа должны наблюдать значение доли агентов, приобретающих товар, не меньшее, чем им сообщил центр, то есть условие стабильности имеет вид: x(
    q, q
    2
    )
    ³
    q
    2
    Подставляя (5.34), получим:
    (5.38)
    q + (1 – q) p(q
    2
    )
    ³
    q
    2
    Следовательно, оптимальным стабильным решением задачи информационного регулирования будет решение задачи максимиза- ции (5.36) при ограничении (5.38).
    В заключение настоящего раздела отметим, что в рассматри- ваемом примере любое информационное регулирование будет ста- бильным в смысле (5.38). Если же понимать под стабильностью полное совпадение ожидаемых и наблюдаемых агентами результа- тов (то есть потребовать выполнение (5.38) как равенства), то един- ственным стабильным информационным регулированием будет сообщение центра, что все агенты являются агентами первого типа, то есть
    q
    2
    = 1 (что чаще всего и имеет место в рекламе).
    Качественное обсуждение. Методы информационного управ- ления, описанные в настоящей главе, являются наиболее тонкими, изощренными, «рискованными» по сравнению с прочими, поскольку информированность (мнения, убеждения) обычно смоделировать сложнее, чем, например, оргструктуру организации или даже моти- вационную структуру субъекта. Более того, методы информацион- ного управления могут применяться как «надстройка» над любыми другими методами, так как в результате применения управления в организационной системе формируется равновесие, зависящие от

    186 информированности всех участников системы. А воздействие на структуру информированности может позволить управлять равнове- сием, повышая эффективность функционирования системы с точки зрения лица, принимающего решения.
    В рамках принятой в рефлексивных играх модели принятия ре- шений действия агента определяются не чем иным, как его инфор- мированностью о состоянии природы и представлениях оппонентов
    (других агентов). Поэтому весьма важным является вопрос о том, каким образом информационные воздействия центра влияют на эти представления. Иными словами, вопрос состоит в следующем: как формируется информационная структура игры в зависимости от тех или иных информационных воздействий центра.
    Здесь необходимо признать, что сколько-нибудь исчерпываю- щий ответ на этот вопрос, по видимому, невозможно получить, оперируя исключительно математическими (и, в частности, теорети- ко-игровыми) моделями. Это обусловлено в первую очередь тем, что процесс усвоения человеком той или иной информации в очень большой степени обусловлен факторами социально- психологического порядка. Как отмечено в [5, с. 81], «секрет высо- коэффективного информационного управления – обращение к бес- сознательному, в использовании приемов снятия барьеров воспри- ятия и преодоления естественной толерантности человека к восприятию нового».
    Понятно, с какими трудностями связана формализация этого процесса, когда речь идет о принятии решения умным и рациональ- ным агентом (intelligent rational decision-maker [36, p. 1]) – «главным героем» работ по теории игр. Все разработанные на данный момент концепции решения игры основываются, явно или неявно, на уже существующей к моменту начала игры структуре информированно- сти
    22
    . Что было «до начала игры», как сложилась та или иная ин- формированность – этот вопрос остается за рамками обсуждения.
    По-видимому, здесь проходит некая граница между реальным чело- веком и модельным «умным рациональным агентом».
    Выше была приведена классификация информационных воз- действий.
    22
    Не являются исключением и многошаговые игры, где в ходе разыгрыва-
    ния игры может происходить изменение информированности участников
    (в том числе в силу информационного обмена между ними) – ведь и у
    многошаговой игры существует некий начальный момент и, соответст-
    венно, начальная информированность участников.

    187
    Напомним пример, ставший основой модели «Принцип дефи- цита» (см. раздел 5.4). В [29, с. 235] описан психологический экспе- римент, проведенный изучавшим психологию бизнесменом, вла- дельцем компании, импортирующей в США говядину. «Торговые агенты позвонили, как обычно, постоянным клиентам компании – закупщикам говядины для супермаркетов и других точек, торгую- щих продуктами в розницу, и одним из трех способов предложили им сделать заказ. Одни клиенты услышали предложение, сделанное в стандартной форме. Другим клиентам дополнительно была пре- доставлена информация о том, что поставки импортной говядины будут сокращены в ближайшие несколько месяцев. Третья группа клиентов получила те же сведения, что и вторая группа, а также информацию о том, что мало кто узнает о предстоящем сокращении поставок, так как эти сведения поступили из надежного, но засекре- ченного источника.
    … По сравнению с клиентами, которым было сделано торговое предложение в стандартной форме, те клиенты, которым было также сказано о дефиците говядины, заказали ее в два раза больше…
    Клиенты, которые решили, что владеют «исключительной» инфор- мацией… приобрели в шесть раз больше говядины, чем клиенты, которым было сделано торговое предложение в стандартной фор- ме».
    В этом примере отчетливо видно осуществление информацион- ного регулирования («поставки импортной говядины будут сокра- щены») и рефлексивного управления («поставки импортной говяди- ны будут сокращены… мало кто узнает о предстоящем сокращении поставок»).
    Приведем пример активного прогноза. В [13, с. 162] описывает- ся следующий эффект. «Вечером 6 января 1981 года Джозеф Гран- вилл, известный советник по капиталовложениям во Флориде, от- правил своим клиентам телеграмму: «Цены на акции резко упадут; продавайте завтра». Очень скоро все узнали о совете Гранвилла, и 7 января стало самым черным днем во всей истории Нью-йоркской фондовой биржи. По общему мнению, акции потеряли в цене около
    40 миллиардов долларов».
    Еще пример активного прогноза [26, с. 51]: «Если влиятельные эксперты, выполняя заказ главы государства, находящегося в кон- фликтных отношениях с высшим органом законодательной власти, спрогнозировали неизбежность досрочного роспуска парламента, то это могло подвигнуть заказчика именно к такому развитию событий,

    188 хотя реально оставались возможности для реализации иного сцена- рия».
    В заключение данного раздела отметим, что на сегодняшний день существует несколько трактовок терминов «рефлексия» и
    «рефлексивное управление». В том числе, в рамках подходов школы
    В.А. Лефевра см. [6, 7-12, 24, 28, 33, 34] и др. (см. также [14]),.
    Успешность практического применения методов информацион- ного управления в решающей степени зависит от адекватности моделей
    1) текущей информированности агентов;
    2) зависимости информационной структуры от сообщений (и иных действий) центра.
    Задачи и упражнения к главе 5
    5.1. В игре участвуют три агента с целевыми функциями сле- дующего вида (олигополия Курно с нулевыми затратами на произ- водство):
    f
    i
    (
    q, x
    1
    , x
    2
    , x
    3
    ) = (
    qx
    1
    x
    2
    x
    3
    ) x
    i
    , где
    x
    i
    ³ 0,
    i
    Î N = {1, 2, 3};
    q Î W = {1, 2}.
    Содержательно, x
    i
    – объем выпуска продукции i-м агентом,
    q – величина, характеризующая спрос на производимую продукцию.
    Для краткости будем называть агента, считающего, что спрос низ- кий (
    q = 1), пессимистом, а считающего, что спрос высокий (q = 2) – оптимистом.
    Постройте граф рефлексивной игры и найдите информационное равновесие в следующих ситуациях:
    5.1.1. Первый и второй агенты оптимисты и считают всех трех агентов одинаково информированными оптимистами. Третий агент пессимист и считает всех трех агентов одинаково информированны- ми пессимистами.
    5.1.2. Первый и второй агенты оптимисты и считают всех трех агентов одинаково информированными оптимистами. Третий агент пессимист и адекватно информирован о первых двух.
    5.1.3. Первый агент считает общим знанием, что спрос будет низким; второй агент считает общим знанием, что спрос будет высоким. Третий агент оптимист и адекватно информирован о пер- вых двух.
    5.1.4. Каждый из агентов является оптимистом и считает, что остальные двое считают общим знанием низкий спрос.

    189
    5.2. Пусть в игре участвуют два агента с целевыми функциями
    f
    i
    (
    q, x
    1
    , x
    2
    ) = (
    qx
    1
    x
    2
    ) x
    i
    , где x
    i
    ³ 0, i = 1, 2;
    q ³ 0.
    Приведите пример информационной структуры, в котором пер- вый агент адекватно информирован о втором, представление перво- го агента о неопределенном параметре соответствует действитель- ности, однако в равновесии второй агент получает больший выигрыш, чем первый.
    5.3. Приведите пример ситуации с тремя участниками и неопре- деленным параметром
    q, в которой в действительности имеет место
    q = q
    0
    и общим знанием среди агентов является
    q = q
    1
    ¹
    q
    0
    5.4. Приведите пример ситуации с тремя участниками и неопре- деленным параметром
    q, в которой в действительности имеет место
    q = q
    0
    и если бы общим знанием среди агентов было бы
    q = q
    0
    , то выигрыш всех агентов в равновесии был бы меньше, чем в исходной ситуации.
    5.5. Проанализируйте, как в примерах 5.1 и 5.2 информирован- ность влияет на действия и выигрыши агентов.
    5.6. В условиях примера 5.2 все трое агентов оптимисты, пер- вый и второй взаимно информированы, второй и третий также вза- имно информированы. По мнению первого агента, третий считает всех троих одинаково информированными пессимистами; также и первый агент, по мнению третьего, считает всех троих одинаково информированными пессимистами. Нарисуйте граф рефлексивной игры. Найдите информационное равновесие [20].
    5.7. Пусть в ситуации участвуют два государства (А и В) и агент, который, будучи высокопоставленным чиновником государ- ства А является одновременно осведомителем государства В, о чем государству А неизвестно. Нарисуйте граф рефлексивной игры [20].
    5.8. Пусть в условиях задачи 5.7 агент на самом деле работает на государство А, а государству В передает лишь соответствующим образом обработанные сведения. Нарисуйте граф рефлексивной игры [20].
    5.9. Играя в прятки, первый агент прячется в одной из несколь- ких комнат разной освещенности, а другой агент должен выбрать ту комнату, где будет его искать. Степени освещенности всех комнат являются общим знанием. Стратегии агентов следующие. Ищущий при прочих равных условиях предпочитает искать, где светлее (там проще найти). Прячущемуся понятно, что в более темной комнате шансов найти его меньше, чем в освещенной. Возрастание ранга рефлексии означает, что агенту становится понятно, что это понятно

    190 и его противнику, и т.д. Каковы максимальные целесообразные ранги рефлексии агентов [20]?
    5.10
    *
    . Продавец и покупатель, имеющие иерархию взаимных представлений о ценности продаваемого товара, должны придти к соглашению о цене, по которой произойдет сделка купли-продажи.
    Постройте модель. Найдите информационное равновесие [21, 31].
    5.11
    *
    . Пусть в модели активной экспертизы (см. раздел 4.5) ор- ганизатор экспертизы имеет возможность сформировать у экспертов представления о мнениях друг друга. Какой диапазон коллективных решений может быть реализован как информационное равновесие рефлексивной игры экспертов [31]?
    5.12
    *
    . Постройте и исследуйте модель формирования команды – множества агентов, выборы которых согласованы с иерархией их взаимных представлений друг о друге [18].
    5.13
    *
    . В условиях модели упражнения 5.12 исследуйте, как ин- формированность агентов о действиях и результатах деятельности других членов команды влияет на скорость формирования команды
    [16].
    5.14
    *
    . Для модели распределения ресурса (см. раздел 4.3) иссле- дуйте, при каких взаимных представлениях агентов о необходимых им количествах ресурса существует стабильное информационное равновесие. В каких случаях это равновесие истинное? Докажите, что стабильные неадекватные представления могут существовать только относительно агентов, не входящих в число «диктаторов»
    [21].
    5.15
    *
    . Приведите определения следующих понятий и содержа- тельные примеры: множество достижимости, рефлексия (первого рода, второго рода, информационная, стратегическая), рефлексивная игра, структура информированности, информационное равновесие
    (стабильное, нестабильное, истинное, ложное), функция наблюде- ния, информационное регулирование, рефлексивное управление, активный прогноз, аксиома автоинформированности, фантомный агент, сложностью структуры информированности, глубина струк- туры информированности, ранг рефлексии, граф рефлексивной игры, равновесие биполярного выбора.

    191
    Литература к главе 5
    23 1. Автономов В.С. Модель человека в экономической науке. – СПб.:
    Экономическая школа, 1998.
    2.
    *
    Губко М.В. Механизмы управления организационными система- ми с коалиционным взаимодействием участников. – М.: ИПУ РАН,
    2003.
    3.
    *
    Губко М.В., Новиков Д.А. Теория игр в управлении организаци- онными системами. – М.: Синтег, 2002.
    4. Зимбардо Ф., Ляйппе М. Социальное влияние. – СПб.: Питер,
    2000.
    5. Информационное общество: Информационные войны. Информа- ционное управление. Информационная безопасность / Под ред.
    М.А. Вуса. С.–Пб.: Издательство С.-Петербургского университета,
    1999.
    6. Крылов В.Ю. Методологические и теоретические проблемы математической психологии. М.: Янус-К, 2000.
    7. Лефевр В.А. Исходные идеи логики рефлексивных игр / Материа- лы конференции «Проблемы исследования систем и структур». М.:
    Издание АН СССР, 1965.
    8.
    *
    Лефевр В.А. Конфликтующие структуры. – М.: Советское радио,
    1973.
    9. Лефевр В.А. Комический субъект. М.: Институт психологии РАН,
    1997.
    10. Лефевр В.А. Формула человека. Контуры фундаментальной психологии. – М.: Прогресс, 1991.
    11. Лефевр В.А. Алгебра совести. – М.: «Когито-Центр», 2003.
    12. Лефевр В.А. Рефлексия. – М.: «Когито-Центр», 2003.
    13. Майерс Д. Социальная психология. СПб.: Питер, 2001.
    14.
    *
    Новиков А.М., Новиков Д.А. Методология. – М.: Синтег, 2007.
    15.
    *
    Новиков Д.А. Институциональное управление организацион- ными системами. – М.: ИПУ РАН, 2003.
    16.
    *
    Новиков Д.А. Математические модели формирования и функ- ционирования команд. – М.: Физматлит, 2008.
    23
    Проблемы построения моделей информационного управления и моделей
    иерархических структур привлекли внимание исследователей сравнительно
    недавно, и в этих областях еще не сложилась «каноническая библиогра-
    фия». Поэтому списки литературы к настоящей и последующей главе
    гораздо объёмнее списков литературы к предыдущим главам.

    192 17.
    *
    Новиков Д.А. Стимулирование в организационных системах. –
    М.: Синтег, 2003.
    18.
    *
    Новиков Д.А. Теория управления организационными система- ми. – М.: Физматлит, 2007.
    19.
    *
    Новиков Д.А., Чхартишвили А.Г. Активный прогноз. – М.: ИПУ
    РАН, 2002.
    20.
    *
    Новиков Д.А., Чхартишвили А.Г. Рефлексивные игры. – М.:
    Синтег, 2003.
    21.
    *
    Новиков Д.А., Чхартишвили А.Г. Прикладные модели инфор- мационного управления. – М.: ИПУ РАН, 2004.
    22. Опойцев В.И. Равновесие и устойчивость в моделях коллектив- ного поведения. – М.: Наука, 1977.
    23. Расторгуев С.П. Философия информационной войны. М.: Вузов- ская книга, 2001. – 468 с.
    24. Рефлексивные процессы / Спецвыпуск журнала «Прикладная эргономика». 1994. № 1.
    25. Рудык Н.Б. Поведенческие финансы или между страхом и алч- ностью. – М.: Дело, 2004.
    26. Симонов К.В. Политический анализ. – М.: Логос, 2002. – 152 с.
    27. Сэндидж Ч., Фрайбургер В., Ротцолл К. Реклама: теория и прак- тика. – М.: Прогресс, 1999.
    28. Таран Т.А. Логические модели рефлексивного выбора // Автома- тика и Телемеханика. 2001. № 10. С. 103 – 117.
    29. Чалдини Р. Психология влияния. – СПб.: Питер, 2001.
    30.
    *
    Чхартишвили А.Г. Информационное равновесие / Управление большими системами. 2003. № 3. С. 100 – 119.
    31.
    *
    Чхартишвили А.Г. Теоретико-игровые модели информационно- го управления. – М.: ПМСОФТ, 2004.
    32. Шейнов В.П. Скрытое управление человеком (психология мани- пулирования). – М.: Издательство АСТ, 2002.
    33. Шеманов А.Ю. Самоидентификация на пороге «осевых времен»
    (к интерпретации модели рефлексии В. Лефевра) / От философии жизни к философии культуры. СПб., 2001. С. 137 – 158.
    34. Шрейдер Ю.А. Человеческая рефлексия и две системы этическо- го сознания // Вопросы философии. 1990. № 7. С. 32 – 42.
    35. Mas-Colell A., Whinston M.D., Green J.R. Microeconomic theory. –
    N.Y.: Oxford Univ. Press, 1995.
    36. Myerson R.B. Game theory: analysis of conflict. – London: Harvard
    Univ. Press, 2001.

    1   ...   11   12   13   14   15   16   17   18   ...   23


    написать администратору сайта