Главная страница

Проектами


Скачать 1.09 Mb.
НазваниеПроектами
Дата20.04.2023
Размер1.09 Mb.
Формат файлаpdf
Имя файлаmetodika_osvoennogo_obema_v_operativnom_upravlenii_proektami.pdf
ТипРеферат
#1077910
страница8 из 11
1   2   3   4   5   6   7   8   9   10   11

А.2.6.
∀ y ∈ A Q
-
(y)
≤ y, Q
+
(y)
≥ y; Q
-
(
), Q
+
(
) – строго возрас- тающие непрерывные функции.
Если целевая функция центра зависит от фактического сокра- щения продолжительности проекта z
∈ A
0
, то ее гарантированное значение равно:
(8)
Φ
Г
(
σ, y) =
)
(
max
y
Z
z

Φ(z, σ).
Итак, задача стимулирования имеет вид:
(9)






Φ




)
,
(
max min
)
),
(
(
г
0
*
]
;
0
[
,
*
*
г
0
*
y
f
Arg
y
y
y
y
T
T
y
M
σ
σ
σ
Задача (9) является детерминированной задачей стимулирова- ния (см. задачу (3)).

84
Теорема 2.4а. Система стимулирования
(10)
σ(y
*
, z) =





+

+

)]
(
);
(
[
,
0
)]
(
);
(
[
),
(
*
*
*
*
*
y
Q
y
Q
z
y
Q
y
Q
z
y
c
,
реализует действие АЭ y
*
. Оптимальное значение реализуемого действия АЭ определяется следующим выражением:
(11) y
*
= arg
]
,
0
[
0
min
T
T
y


)
(
max
y
Z
z

Φ(z, σ(z)).
При этом гарантированное значение целевой функции АЭ рав- но нулю.
Реализуемость действия y
*
∈ A системой стимулирования (10)
следует из определения гарантированной реализуемости и предпо- ложения А.2.6. Справедливость остальных утверждений теорема
2.4а очевидна.

Отметим, что в условиях теоремы 2.4а не фигурирует правая граница Q
+
(y) диапазона возможных значений результата деятель- ности при заданном действии. Это объясняется тем, что при вычис- лении МГР в (7) и (8) используется минимум (соответственно,
максимум) про множеству Z(y) (см. также [79]).
Содержательно, для того, чтобы побудить АЭ выбрать дейст- вие y
*
∈ A центр вынужден компенсировать ему затраты в размере
c(y
*
) во всем множестве Z(y).
Предположим, что функция штрафов центра монотонна, тогда целевая функция центра имеет вид:
Φ(y) =
)
(
max
y
Z
z

{
χ(T – T
0
– z) +
σ(y, z)}.
Так как функция штрафов монотонна, а система стимулирова- ния (10) кусочно-постоянна, то
Φ(y) = χ(T – T
0
–Q
-
(y)) + c(y). Задача
Φ(y)
0
min

y
является скалярной оптимизационной задачей.
Пример 5. Пусть левая граница множества возможных резуль- татов деятельности имеет следующий вид: Q
-
(y) = (1-

-
)y, где вы- полнено:

-
[0; 1], а функция штрафов линейна. Тогда получаем,
что оптимальное решение y
*
= arg
0
min

y
Φ(y) имеет вид (3), где
ξ() = c
’-1
((1 –

-
)
χ
0
).
Легко проверить, что с ростом неопределенности (увеличением

-
[0; 1]) эффективность стимулирования не возрастает. В пре-

85
дельном случае (при

-
= 0) решение задачи в условиях неопреде- ленности переходит в решение соответствующей детерминирован- ной задачи, что вполне согласуется с общими принципами, изло- женными в [79].

Рассмотрим теперь случай, когда на момент принятия решений участники АС информированы асимметрично (данная модель близка к задачам стимулирования, рассмотренным в [79]): АЭ знает достоверно каким будет результат деятельности z
∈ A
0
в зависимо- сти от выбираемого им действия: z = z(y), а центр имеет информа- цию об интервале возможных значений: z(y)
∈ Z(y). Для простоты можно положить
∀ y ∈ A z(y) = y.
Целевая функция АЭ равна: f(
σ, y) = σ(z(y)) – c(y). Следова- тельно, в рассматриваемой модели множество реализуемых дейст- вий АЭ есть P(
σ) = Arg
A
y

max
{
σ(z(y)) – c(y)}.
Если целевая функция центра зависит от фактического сокра- щения продолжительности проекта z
∈ A
0
, то ее гарантированное значение равно:
(12)
Φ
Г
(
σ, y) =
)
(
max
y
Z
z

Φ(z, σ).
Итак, задача стимулирования имеет вид:
(13)







Φ




)}
(
))
(
(
{
max min
)
),
(
(
0
*
]
;
0
[
,
*
*
г
0
*
y
c
y
z
Arg
y
y
y
y
T
T
y
M
σ
σ
σ
Задача (13) является детерминированной задачей стимулиро- вания (см. задачу (3)).
Теорема 2.4б. Система стимулирования
(14)
σ(y
*
, z) =





+

+

)]
(
);
(
[
,
0
)]
(
);
(
[
),
(
*
*
*
*
*
y
Q
y
Q
z
y
Q
y
Q
z
y
c
,
реализует действие АЭ y
*
. Оптимальное с точки зрения центра значение реализуемого действия АЭ определяется следующим выражением:
(15) y
*
= arg
]
,
0
[
0
min
T
T
y


)
(
max
y
Z
z

Φ(z, σ(z)).
При этом гарантированное значение целевой функции АЭ равно:
f
Г
(y
*
) = c(y
*
) – c(Q
-
(y
*
))
≥ 0.

86
Доказательство теоремы 2.4б аналогично доказательству тео- ремы 2.4а и опускается. Обсудим качественное различие результа- тов.
Отличие моделей заключается в том, что в задаче (13), по сравнению с задачей (10), АЭ достоверно знает зависимость между своим действием и результатом деятельности, а центру по- прежнему известен лишь интервал возможных значений. Следова- тельно, имеет место асимметричная информированность участни- ков. Так как в обоих случаях информированность центра одинако- ва, то одинакова в обоих случаях и максимальная гарантированная эффективность управления (максимальное гарантированное значе- ние целевой функции центра на множестве гарантированно реали- зуемых действий АЭ). Отличие в информированности АЭ приводит к тому, что увеличивается гарантированное значение его целевой функции. Системы стимулирования (11) и (14) одинаковы, однако
АЭ имеет возможность «обмануть центр», то есть выбрать действие
Q
-
(y
*
) (обеспечив тем самым z = Q
-
(y
*
)) и получить при этом возна- граждение c(y
*
) превышающее его реальные затраты c(Q
-
(y
*
)).
В предельном случае, то есть при увеличении информирован- ности участников АС, задачи (10) и (13) и их решения переходят,
соответственно, в детерминированную задачу (3) и ее решение (5),
то есть принцип соответствия [79] имеет место.
2.2.3. Внешняя вероятностная неопределенность относительно результатов деятельности АЭ
В рамках модели, рассмотренной в предыдущем подразделе,
предположим, что реальное сокращение z
∈ A
0
= [0; +
) продол- жительности проекта зависит от действия АЭ, но является случай- ной величиной с интегральной функцией условного распределения
F(z, y) – модель теории контрактов [79, 105, 107, 133-136, 144].
Будем считать, что, выбирая свои стратегии, участники проекта имеют информацию лишь об этом распределении. Кроме того,
предположим, что действия, выбираемые АЭ, не наблюдаются центром, которому становится известен лишь результат деятельно- сти. Поэтому стимулирование АЭ центром уже не может (как в детерминированном случае) основываться на действиях АЭ, а

87
должно зависеть от случайной величины – результата деятельно- сти.
Дополнительно к предположениям А.2.4 и А.2.5 введем сле- дующее предположение относительно свойств функции распреде- ления (модель простого активного элемента [22, 79, 42]):
А.2.7. F(z, y) =




<
y
z
y
z
z
F
,
1
),
(
, F(T - T
0
) < 1.
Содержательно предположение А.2.7 означает, что реальное сокращение продолжительности проекта оказывается не большим,
чем действие АЭ. Кроме того, считается, что, даже если АЭ ориен- тируется (выбирает действие) на такое сокращение длительности,
что продолжительность проекта в детерминированном случае оказалась бы меньшей, чем плановая, то существует ненулевая вероятность того, что фактическая продолжительность проекта превысит плановую.
Так как функции полезности (не путать с целевыми функция- ми! [78]) участников проекта:
(16)
Φ(σ(z), z) = σ(z) + χ(z),
(17) f(
σ(z), z) = σ(z) – c(z)
зависят от случайных величин, распределения которых им известны, будем считать, что они выбирают свои стратегии, стре- мясь максимизировать ожидаемую полезность. Таким образом,
целевые функции участников определяются их ожидаемой полез- ностью, то есть имеет место
1
:
Φ(σ, y) = E Φ(σ, z) = E {σ(z) + χ(T –
T
0
– z)}, f(
σ, y) = E f(σ, z) = E {σ(z) – c(z)}, а задача управления имеет вид:
(18)







Φ






0 0
*
0
)
,
(
)
),
(
(
max min
)
,
(
)
),
(
(
0
*
]
;
0
[
,
*
A
y
T
T
y
M
A
dz
y
z
p
z
z
f
Arg
y
dz
y
z
p
z
z
σ
σ
σ
.
1
Символ «E» обозначает оператор вычисления математического ожи-
дания.

88
Теорема 2.5а. Оптимальное решение
σ
*
(z) задачи (18) имеет вид:
(19)
σ
*
(z
*
, z) =



>

*
*
,
0
),
(
z
z
z
z
z
c
,
где оптимальное значение результата деятельности АЭ z
*
определя- ется следующим выражением:
(20) z
*
= arg
]
,
0
[
0
min
T
T
y


Φ(σ
*
, y).
Доказательство теоремы 2.5а использует тот факт, что в моде- ли простого АЭ стационарные точки функции полезности и целе- вой функции совпадают, то есть, практически, повторяет доказа- тельство утверждения 3.1.15, приведенного в работе [79], и по этой причине опускается.
Если затраты АЭ зависят не от результата его деятельности, а непосредственно (и только!) от его действия, то есть c = c(y), то дело обстоит несколько более сложным образом. Для этого случая оптимальное решение задачи оперативного управления дается следующей теоремой.
Теорема 2.5б. Если затраты АЭ зависят от его действия, то оп- тимальное решение
σ
*
(z) задачи (18) имеет вид:
(21)
σ
*
(y
*
, z) =






=

*
*
*
*
,
0
,
)
(
1
)
(
y
z
y
z
y
F
y
c
,
где оптимальное значение результата деятельности АЭ z
*
определя- ется следующим выражением
1
:
(22) z
*
= arg
A
y

max
{с(y) + E
χ(T – T
0
– z)}.
Докажем, что система стимулирования (21)
2
реализует дейст- вие y
*
∈ A. Ожидаемая полезность АЭ равна:
1
Символ «E» обозначает оператор математического ожидания.
2
Отметим, что в работе [42] для близкой к рассматриваемой задачи
(также в модели простого АЭ) была доказана оптимальность следующей
системы стимулирования:


=
z
dx
x
F
x
c
z
w
0 0
)
(
1
)
(
'
)
(
.

89
f(y,
σ) =

y
0
σ(z) p(z) dz + σ(y)[1 – F(y)] – c(y).
Подставляя систему стимулирования (21), легко видеть, что выполнено условие реализуемости:
∀ y ∈ A f(y
*
,
σ
*
)
≥ f(y, σ
*
).
Докажем, что (21) минимизирует затраты центра на стимули- рование. Предположим противное, то есть пусть существует
σ


∈ M, такое, что выполнено:
(23)

*
0
y
σ
(z) p(z) dz +
σ
(y
*
)[1 – F(y
*
)] < E
σ
*
(y
*
, z) = c(y
*
).
Подставляя в условие реализуемости действия y
*
системой стимулирования
σ
конкретное значение действия АЭ: y = 0, полу- чим (первое неравенство следует из (23)):
0 >

0
A
σ
(z)p(z, y
*
) dz – c(y
*
)

σ
(0) – c(0),
что противоречит А.2.4.

Сравним эффективность стимулирования в двух случаях. Пер- вый случай - когда функция затрат АЭ зависит от результата его деятельности, второй случай когда функция затрат АЭ зависит от его действия. Так как множества A и A
0
совпадают, то будем рас- сматривать одну и ту же функцию затрат c(
).
Следствие. Эффективность стимулирования в случае, когда за- траты АЭ зависят от ненаблюдаемого центром действия АЭ, не выше, чем в случае, когда затраты АЭ зависят от его результата деятельности, наблюдаемого центром.
Вычислим ожидаемое значение функции стимулирования (19):
E
σ
*
(z
*
, z) =

*
0
z
c(z) p(z) dz + c(z
*
)[1 – F(z
*
)]
≤ c(z
*
).
Последнее неравенство получено оценкой интеграла сверху в силу монотонности и неотрицательности затрат АЭ.
В ходе доказательства теоремы 2.5б было установлено, что ожидаемое значение функции стимулирования (21) равно следую- щей величине : E
σ
*
(y
*
, z) = c(y
*
).

90
Если приравнять действия y
*
и z
*
, реализуемые, соответствен- но, системами стимулирования (21) и (19), то получим:
E
σ
*
(y
*
, z)
≥ E σ
*
(z
*
, z).
Так как минимальные затраты на стимулирование по реализа- ции любого действия системой стимулирования (21) выше, чем системой стимулирования (19), то по теореме о минимальных затратах на стимулирование [78] получаем утверждение следст- вия.

Итак, теоремы 2.5а и 2.5б дают решение задачи синтеза опти- мальной функции стимулирования, побуждающей простой актив- ный элемент к сокращению времени выполнения проекта.
Проверим выполнение принципа соответствия – при «предель- ном переходе» от вероятностной АС (рассматриваемой модели простого АЭ) к соответствующей детерминированной АС опти- мальные решения должны совпадать. Действительно, система стимулирования (19) переходит в оптимальную в детерминирован- ной модели компенсаторную систему стимулирования [79], а (21) в точности совпадает с оптимальной квазикомпенсаторной системой стимулирования (4).
2.2.4. Внешняя нечеткая неопределенность относительно результатов деятельности АЭ
В рамках модели, рассмотренной в предыдущем подразделе,
предположим, что реальное сокращение z
∈ A
0
= [0; +
) продол- жительности проекта зависит от действия АЭ, но, выбирая свои стратегии, участники проекта имеют о нем нечеткую информацию
P

(z, y),
P

: A
× A
0
[0; 1]. По-прежнему будем считать, что дей- ствия, выбираемые АЭ, не наблюдаются центром, а стимулирова- ние зависит от результата деятельности, в то время как целевая функция центра зависит от действия АЭ (если в рассматриваемой модели с нечеткой неопределенностью целевая функция центра зависит от результата деятельности АЭ, то в рамках вводимых ниже предположений задача управления сводится [79] к детерми- нированной, то есть описанной выше).
Дополнительно к предположениям А.2.4 и А.2.5 введем сле- дующее предположение относительно свойств нечеткой информа- ционной функции:

91
1   2   3   4   5   6   7   8   9   10   11


написать администратору сайта