Проектами
Скачать 1.09 Mb.
|
∀ y ∈ A Q - (y) ≤ y, Q + (y) ≥ y; Q - ( ⋅), Q + ( ⋅) – строго возрас- тающие непрерывные функции. Если целевая функция центра зависит от фактического сокра- щения продолжительности проекта z ∈ A 0 , то ее гарантированное значение равно: (8) Φ Г ( σ, y) = ) ( max y Z z ∈ Φ(z, σ). Итак, задача стимулирования имеет вид: (9) ∈ → Φ ≥ − ∈ ∈ ) , ( max min ) ), ( ( г 0 * ] ; 0 [ , * * г 0 * y f Arg y y y y T T y M σ σ σ Задача (9) является детерминированной задачей стимулирова- ния (см. задачу (3)). 84 Теорема 2.4а. Система стимулирования (10) σ(y * , z) = ∉ ∈ + − + − )] ( ); ( [ , 0 )] ( ); ( [ ), ( * * * * * y Q y Q z y Q y Q z y c , реализует действие АЭ y * . Оптимальное значение реализуемого действия АЭ определяется следующим выражением: (11) y * = arg ] , 0 [ 0 min T T y − ∈ ) ( max y Z z ∈ Φ(z, σ(z)). При этом гарантированное значение целевой функции АЭ рав- но нулю. Реализуемость действия y * ∈ A системой стимулирования (10) следует из определения гарантированной реализуемости и предпо- ложения А.2.6. Справедливость остальных утверждений теорема 2.4а очевидна. • Отметим, что в условиях теоремы 2.4а не фигурирует правая граница Q + (y) диапазона возможных значений результата деятель- ности при заданном действии. Это объясняется тем, что при вычис- лении МГР в (7) и (8) используется минимум (соответственно, максимум) про множеству Z(y) (см. также [79]). Содержательно, для того, чтобы побудить АЭ выбрать дейст- вие y * ∈ A центр вынужден компенсировать ему затраты в размере c(y * ) во всем множестве Z(y). Предположим, что функция штрафов центра монотонна, тогда целевая функция центра имеет вид: Φ(y) = ) ( max y Z z ∈ { χ(T – T 0 – z) + σ(y, z)}. Так как функция штрафов монотонна, а система стимулирова- ния (10) кусочно-постоянна, то Φ(y) = χ(T – T 0 –Q - (y)) + c(y). Задача Φ(y) → 0 min ≥ y является скалярной оптимизационной задачей. Пример 5. Пусть левая граница множества возможных резуль- татов деятельности имеет следующий вид: Q - (y) = (1- ∆ - )y, где вы- полнено: ∆ - ∈ [0; 1], а функция штрафов линейна. Тогда получаем, что оптимальное решение y * = arg 0 min ≥ y Φ(y) имеет вид (3), где ξ(⋅) = c ’-1 ((1 – ∆ - ) χ 0 ). Легко проверить, что с ростом неопределенности (увеличением ∆ - ∈ [0; 1]) эффективность стимулирования не возрастает. В пре- 85 дельном случае (при ∆ - = 0) решение задачи в условиях неопреде- ленности переходит в решение соответствующей детерминирован- ной задачи, что вполне согласуется с общими принципами, изло- женными в [79]. • Рассмотрим теперь случай, когда на момент принятия решений участники АС информированы асимметрично (данная модель близка к задачам стимулирования, рассмотренным в [79]): АЭ знает достоверно каким будет результат деятельности z ∈ A 0 в зависимо- сти от выбираемого им действия: z = z(y), а центр имеет информа- цию об интервале возможных значений: z(y) ∈ Z(y). Для простоты можно положить ∀ y ∈ A z(y) = y. Целевая функция АЭ равна: f( σ, y) = σ(z(y)) – c(y). Следова- тельно, в рассматриваемой модели множество реализуемых дейст- вий АЭ есть P( σ) = Arg A y ∈ max { σ(z(y)) – c(y)}. Если целевая функция центра зависит от фактического сокра- щения продолжительности проекта z ∈ A 0 , то ее гарантированное значение равно: (12) Φ Г ( σ, y) = ) ( max y Z z ∈ Φ(z, σ). Итак, задача стимулирования имеет вид: (13) − ∈ → Φ ≥ − ∈ ∈ )} ( )) ( ( { max min ) ), ( ( 0 * ] ; 0 [ , * * г 0 * y c y z Arg y y y y T T y M σ σ σ Задача (13) является детерминированной задачей стимулиро- вания (см. задачу (3)). Теорема 2.4б. Система стимулирования (14) σ(y * , z) = ∉ ∈ + − + − )] ( ); ( [ , 0 )] ( ); ( [ ), ( * * * * * y Q y Q z y Q y Q z y c , реализует действие АЭ y * . Оптимальное с точки зрения центра значение реализуемого действия АЭ определяется следующим выражением: (15) y * = arg ] , 0 [ 0 min T T y − ∈ ) ( max y Z z ∈ Φ(z, σ(z)). При этом гарантированное значение целевой функции АЭ равно: f Г (y * ) = c(y * ) – c(Q - (y * )) ≥ 0. 86 Доказательство теоремы 2.4б аналогично доказательству тео- ремы 2.4а и опускается. Обсудим качественное различие результа- тов. Отличие моделей заключается в том, что в задаче (13), по сравнению с задачей (10), АЭ достоверно знает зависимость между своим действием и результатом деятельности, а центру по- прежнему известен лишь интервал возможных значений. Следова- тельно, имеет место асимметричная информированность участни- ков. Так как в обоих случаях информированность центра одинако- ва, то одинакова в обоих случаях и максимальная гарантированная эффективность управления (максимальное гарантированное значе- ние целевой функции центра на множестве гарантированно реали- зуемых действий АЭ). Отличие в информированности АЭ приводит к тому, что увеличивается гарантированное значение его целевой функции. Системы стимулирования (11) и (14) одинаковы, однако АЭ имеет возможность «обмануть центр», то есть выбрать действие Q - (y * ) (обеспечив тем самым z = Q - (y * )) и получить при этом возна- граждение c(y * ) превышающее его реальные затраты c(Q - (y * )). В предельном случае, то есть при увеличении информирован- ности участников АС, задачи (10) и (13) и их решения переходят, соответственно, в детерминированную задачу (3) и ее решение (5), то есть принцип соответствия [79] имеет место. 2.2.3. Внешняя вероятностная неопределенность относительно результатов деятельности АЭ В рамках модели, рассмотренной в предыдущем подразделе, предположим, что реальное сокращение z ∈ A 0 = [0; + ∞) продол- жительности проекта зависит от действия АЭ, но является случай- ной величиной с интегральной функцией условного распределения F(z, y) – модель теории контрактов [79, 105, 107, 133-136, 144]. Будем считать, что, выбирая свои стратегии, участники проекта имеют информацию лишь об этом распределении. Кроме того, предположим, что действия, выбираемые АЭ, не наблюдаются центром, которому становится известен лишь результат деятельно- сти. Поэтому стимулирование АЭ центром уже не может (как в детерминированном случае) основываться на действиях АЭ, а 87 должно зависеть от случайной величины – результата деятельно- сти. Дополнительно к предположениям А.2.4 и А.2.5 введем сле- дующее предположение относительно свойств функции распреде- ления (модель простого активного элемента [22, 79, 42]): А.2.7. F(z, y) = ≥ < y z y z z F , 1 ), ( , F(T - T 0 ) < 1. Содержательно предположение А.2.7 означает, что реальное сокращение продолжительности проекта оказывается не большим, чем действие АЭ. Кроме того, считается, что, даже если АЭ ориен- тируется (выбирает действие) на такое сокращение длительности, что продолжительность проекта в детерминированном случае оказалась бы меньшей, чем плановая, то существует ненулевая вероятность того, что фактическая продолжительность проекта превысит плановую. Так как функции полезности (не путать с целевыми функция- ми! [78]) участников проекта: (16) Φ(σ(z), z) = σ(z) + χ(z), (17) f( σ(z), z) = σ(z) – c(z) зависят от случайных величин, распределения которых им известны, будем считать, что они выбирают свои стратегии, стре- мясь максимизировать ожидаемую полезность. Таким образом, целевые функции участников определяются их ожидаемой полез- ностью, то есть имеет место 1 : Φ(σ, y) = E Φ(σ, z) = E {σ(z) + χ(T – T 0 – z)}, f( σ, y) = E f(σ, z) = E {σ(z) – c(z)}, а задача управления имеет вид: (18) ∈ → Φ ∫ ∫ ≥ − ∈ ∈ 0 0 * 0 ) , ( ) ), ( ( max min ) , ( ) ), ( ( 0 * ] ; 0 [ , * A y T T y M A dz y z p z z f Arg y dz y z p z z σ σ σ . 1 Символ «E» обозначает оператор вычисления математического ожи- дания. 88 Теорема 2.5а. Оптимальное решение σ * (z) задачи (18) имеет вид: (19) σ * (z * , z) = > ≤ * * , 0 ), ( z z z z z c , где оптимальное значение результата деятельности АЭ z * определя- ется следующим выражением: (20) z * = arg ] , 0 [ 0 min T T y − ∈ Φ(σ * , y). Доказательство теоремы 2.5а использует тот факт, что в моде- ли простого АЭ стационарные точки функции полезности и целе- вой функции совпадают, то есть, практически, повторяет доказа- тельство утверждения 3.1.15, приведенного в работе [79], и по этой причине опускается. Если затраты АЭ зависят не от результата его деятельности, а непосредственно (и только!) от его действия, то есть c = c(y), то дело обстоит несколько более сложным образом. Для этого случая оптимальное решение задачи оперативного управления дается следующей теоремой. Теорема 2.5б. Если затраты АЭ зависят от его действия, то оп- тимальное решение σ * (z) задачи (18) имеет вид: (21) σ * (y * , z) = ≠ = − * * * * , 0 , ) ( 1 ) ( y z y z y F y c , где оптимальное значение результата деятельности АЭ z * определя- ется следующим выражением 1 : (22) z * = arg A y ∈ max {с(y) + E χ(T – T 0 – z)}. Докажем, что система стимулирования (21) 2 реализует дейст- вие y * ∈ A. Ожидаемая полезность АЭ равна: 1 Символ «E» обозначает оператор математического ожидания. 2 Отметим, что в работе [42] для близкой к рассматриваемой задачи (также в модели простого АЭ) была доказана оптимальность следующей системы стимулирования: ∫ − = z dx x F x c z w 0 0 ) ( 1 ) ( ' ) ( . 89 f(y, σ) = ∫ y 0 σ(z) p(z) dz + σ(y)[1 – F(y)] – c(y). Подставляя систему стимулирования (21), легко видеть, что выполнено условие реализуемости: ∀ y ∈ A f(y * , σ * ) ≥ f(y, σ * ). Докажем, что (21) минимизирует затраты центра на стимули- рование. Предположим противное, то есть пусть существует σ ∈ M, такое, что выполнено: (23) ∫ * 0 y σ (z) p(z) dz + σ (y * )[1 – F(y * )] < E σ * (y * , z) = c(y * ). Подставляя в условие реализуемости действия y * системой стимулирования σ конкретное значение действия АЭ: y = 0, полу- чим (первое неравенство следует из (23)): 0 > ∫ 0 A σ (z)p(z, y * ) dz – c(y * ) ≥ σ (0) – c(0), что противоречит А.2.4. • Сравним эффективность стимулирования в двух случаях. Пер- вый случай - когда функция затрат АЭ зависит от результата его деятельности, второй случай когда функция затрат АЭ зависит от его действия. Так как множества A и A 0 совпадают, то будем рас- сматривать одну и ту же функцию затрат c( ⋅). Следствие. Эффективность стимулирования в случае, когда за- траты АЭ зависят от ненаблюдаемого центром действия АЭ, не выше, чем в случае, когда затраты АЭ зависят от его результата деятельности, наблюдаемого центром. Вычислим ожидаемое значение функции стимулирования (19): E σ * (z * , z) = ∫ * 0 z c(z) p(z) dz + c(z * )[1 – F(z * )] ≤ c(z * ). Последнее неравенство получено оценкой интеграла сверху в силу монотонности и неотрицательности затрат АЭ. В ходе доказательства теоремы 2.5б было установлено, что ожидаемое значение функции стимулирования (21) равно следую- щей величине : E σ * (y * , z) = c(y * ). 90 Если приравнять действия y * и z * , реализуемые, соответствен- но, системами стимулирования (21) и (19), то получим: E σ * (y * , z) ≥ E σ * (z * , z). Так как минимальные затраты на стимулирование по реализа- ции любого действия системой стимулирования (21) выше, чем системой стимулирования (19), то по теореме о минимальных затратах на стимулирование [78] получаем утверждение следст- вия. • Итак, теоремы 2.5а и 2.5б дают решение задачи синтеза опти- мальной функции стимулирования, побуждающей простой актив- ный элемент к сокращению времени выполнения проекта. Проверим выполнение принципа соответствия – при «предель- ном переходе» от вероятностной АС (рассматриваемой модели простого АЭ) к соответствующей детерминированной АС опти- мальные решения должны совпадать. Действительно, система стимулирования (19) переходит в оптимальную в детерминирован- ной модели компенсаторную систему стимулирования [79], а (21) в точности совпадает с оптимальной квазикомпенсаторной системой стимулирования (4). 2.2.4. Внешняя нечеткая неопределенность относительно результатов деятельности АЭ В рамках модели, рассмотренной в предыдущем подразделе, предположим, что реальное сокращение z ∈ A 0 = [0; + ∞) продол- жительности проекта зависит от действия АЭ, но, выбирая свои стратегии, участники проекта имеют о нем нечеткую информацию P (z, y), P : A × A 0 → [0; 1]. По-прежнему будем считать, что дей- ствия, выбираемые АЭ, не наблюдаются центром, а стимулирова- ние зависит от результата деятельности, в то время как целевая функция центра зависит от действия АЭ (если в рассматриваемой модели с нечеткой неопределенностью целевая функция центра зависит от результата деятельности АЭ, то в рамках вводимых ниже предположений задача управления сводится [79] к детерми- нированной, то есть описанной выше). Дополнительно к предположениям А.2.4 и А.2.5 введем сле- дующее предположение относительно свойств нечеткой информа- ционной функции: |