Главная страница

Лекции по теории вероятности. Лекции Тер. Вер.. Лекция 1 Случайные события


Скачать 1.66 Mb.
НазваниеЛекция 1 Случайные события
АнкорЛекции по теории вероятности
Дата13.04.2022
Размер1.66 Mb.
Формат файлаpdf
Имя файлаЛекции Тер. Вер..pdf
ТипЛекция
#470380
страница4 из 21
1   2   3   4   5   6   7   8   9   ...   21
A или B равны нулю.
Замечание 3.1 Из теоремы 3.3 следует, что если в определении 3.2 независимости выполняется одно из равенств (3.2) или (3.3), то выполняется автоматически и другое, т.е. в определении 3.2
достаточно потребовать выполнения любого одного из них.
Пример 3.4 Из колоды карт, содержащей n = 36 карт, наугад извлекают одну карту. Обозначим через A событие, соответствующее тому, что извлеченная карта будет пиковой масти, а B — событие,
соответствующее появлению “дамы”. Определим, являются ли зависимыми события A и B.
После вычислений получаем
P(A) =
9 36
=
1 4
,
P(B) =
4 36
=
1 9
,
P(AB) =
1 36
,
P(B|A) =
P(AB)
P(A)
=
1/36 9/36
=
1 9
= P(B),
т.е. выполняется равенство (3.2), и поэтому события A и B независимы. Отметим, что в соответствии с замечанием 3.1, имеет место и равенство (3.3) P(A|B) =
1/36 4/36
=
1 4
= P(A). Следовательно, события
A и B независимы.
#
Изменим теперь условия опыта, дополнительно добавив в колоду, допустим, N = 100 “пустых”
карт (без рисунка). Изменится ли ответ? Имеем P(B) =
4 136
=
1 34
, т.е. безусловная вероятность события B уменьшилась. Однако условная вероятность P(B|A) =
P(AB)
P(A)
=
1/136 9/136
=
1 9
не изменилась,
т.е события A и B стали зависимыми.
Теорема 3.4 Если события A и B независимые, то независимыми также являются пары собы-
тий A и B, A и B, A и B, если вероятности соответствующих событий ненулевые.
Доказательство. В силу теоремы 3.1 и независимости событий A и B имеем: P
¡
A|B
¢
= 1
P
¡
A|B
¢
= 1 P
¡
A
¢
= P
¡
A
¢
, что означает независимость событий A и B. Независимость остальных пар событий можно доказать аналогично.
Определение 3.4 События A
1
, A
2
, . . . , A
n
называют независимыми в совокупности, если вероятность пересечения любых двух различных событий равна произведению вероятностей этих событий; вероятность пересечения любых трех событий равна произведению их вероятностей;. . .;
вероятность пересечения всех событий равна произведению их вероятностей.
Для событий A
1
, A
2
, . . . , A
n
, независимых в совокупности, имеет место утверждение, аналогич- ное утверждению теоремы 3.4.
Теорема 3.5 Если события A
1
, A
2
, . . . , A
n
независимы в совокупности, то и события
A
1
, A
2
, . . . , A
n
независимы в совокупности. #
14

Если только любые два события из данной совокупности являются независимыми, то говорят о
попарной независимости событий из этой совокупности.
Так же как и в случае двух событий, можно показать, что на вероятность каждого из независи- мых в совокупности событий не оказывает влияние появление или непоявление остальных событий.
Замечание 3.2 В силу определения независимости событий в совокупности формула умно-
жения вероятностей для независимых в совокупности событий имеет вид P(A
1
A
2
. . . A
n
) =
P(A
1
)P(A
2
) . . . P(A
n
). #
Из независимости событий с ненулевыми вероятностями в совокупности, согласно теореме 3.3,
следует их попарная независимость. Однако из попарной независимости, вообще говоря, независи- мость в совокупности не следует, что демонстрирует следующий пример.
Пример 3.5 Опыт состоит в однократном подбрасывании тетраэдра, грани которого “пронумеро- ваны” следующим образом: на трех гранях стоят цифры 1, 2 и 3 соответственно (одна цифра на каждой из них), а на четвертой присутствуют все цифры 1, 2 и 3.
Введем события A
i
— падение тетраэдра на грань, на которой присутствует цифра i, i = 1, 3.
Покажем, что события A
1
, A
2
и A
3
попарно независимы, но зависимы в совокупности.
Согласно классическому определению вероятности, получаем
P(A
i
) =
2 4
=
1 2
,
i = 1, 3,
P(A
2
|A
1
) =
P(A
1
A
2
)
P(A
1
)
=
1/4 2/4
=
1 2
.
Аналогично P(A
i
|A
j
) =
1 2
при любых i, j = 1, 3, i 6= j, т.е. события A
1
, A
2
и A
3
являются попарно независимыми. Однако, например, P(A
1
|A
2
A
3
) =
P(A
1
A
2
A
3
)
P(A
2
A
3
)
=
1/4 1/4
= 1 6= P(A
1
), т. е. события A
1
,
A
2
и A
3
зависимы в совокупности.
#
Заметим, что, когда говорят о независимости событий A
1
, . . . , A
n
, подразумевают именно неза- висимость событий в совокупности, в отличие от попарной независимости событий A
1
, . . . , A
n
Запишем формулу для вероятности объединения независимых событий. Пусть A = A
1
∪ . . . ∪ A
n
.
Тогда в соответствии с законом де Моргана A = A
1
. . . A
n
. Если события A
1
, . . . , A
n
независимые,
то, согласно теореме 3.5, события A
1
, . . . , A
n
также независимые и, значит, P
¡
A
¢
= P
¡
A
1
¢
. . . P
¡
A
n
¢
.
Отсюда окончательно получаем формулу для вероятности объединения независимых со-
бытий:
P(A
1
∪ . . . ∪ A
n
) = 1 P(A
1
∪ . . . ∪ A
n
) = 1 P(A
1
∩ . . . ∩ A
n
) =
= 1 P(A
1
) . . . P(A
n
) = 1 [1 P(A
1
)] . . . [1 P(A
n
)] .
Замечание 3.3 (о связи между совместными и зависимыми событиями). Между поняти- ями “несовместные” и “независимые” события имеется следующая связь:
1) если A и B — несовместные события (и P(A) 6= 0, и P(B) 6= 0), то они обязательно зависимые;
2) если A и B — совместные события, то они могут быть и зависимыми и независимыми;
3) если A и B — зависимые события, то они могут быть и совместными и несовместными. #
15

Лекция 4
Формула полной вероятности.
Формула Байеса. Схема Бернулли
Формула полной вероятности
Предположим, что в результате опыта может произойти одно из n событий H
1
, H
2
, . . . , H
n
, которые удовлетворяют следующим двум условиям:
1) они являются попарно несовместными, т.е. H
i
H
j
= при i 6= j;
2) хотя бы одно из них обязательно должно произойти в результате опыта, другими словами, их
объединение есть достоверное событие, т.е. H
1
∪ . . . ∪ H
n
= Ω.
Определение 4.1 События H
1
, H
2
, . . . , H
n
удовлетворяющие условиям 1 и 2, называют гипоте-
зами.
Заметим, что если события удовлетворяют второму из двух указанных требований, то их совокупность называют полной группой событий.
Таким образом, гипотезы — это попарно несовместные события, образу- ющие полную группу событий.
Пусть также имеется некоторое событие A и известны вероятности
гипотез P(H
1
), . . . , P(H
n
), которые предполагаются ненулевыми, и услов-
ные вероятности P(A|H
1
), . . . , P(A|H
n
) события A при выполнении этих гипотез. Задача состоит в вычислении безусловной вероятности события
A. Для решения этой задачи используют следующую теорему.
Рис. 4.1.
Теорема 4.1 Пусть для некоторого события A и гипотез H
1
, . . . , H
n
известны P(H
1
), . . . , P(H
n
),
которые положительны, и P(A|H
1
), . . . , P(A|H
n
). Тогда безусловную вероятность P(A) определя-
ют по формуле
P(A) = P(H
1
)P(A|H
1
) + . . . + P(H
n
)P(A|H
n
),
(4.1)
которую называют формулой полной вероятности.
Доказательство. Представим событие A в виде
A = AΩ = A(H
1
+ . . . + H
n
) = AH
1
+ . . . + AH
n
(на рис. 4.1 область, соответствующая событию A, заштрихована). С учетом того, что события
AH
i
, i = 1, n, несовместны, имеем
P(A) = P(AH
1
) + . . . + P(AH
n
).
В соответствии с формулой умножения вероятностей получаем
P(AH
1
) = P(H
1
)P(A|H
1
), . . . , P(AH
n
) = P(H
n
)P(A|H
n
).
Поэтому
P(A) = P(H
1
)P(A|H
1
) + . . . + P(H
n
)P(A|H
n
).
Формула полной вероятности при всей своей простоте играет весьма существенную роль в теории вероятностей.
Пример 4.1 Путник должен попасть из пункта B в пункт A в соответствии со схемой дорог изоб- раженной на рис. 4.2. Выбор любой дороги в любом пункте равновозможен. Найдем вероятность события A — достижения путником намеченной цели.
16

Для того чтобы попасть в пункт A, путник должен пройти один из промежуточных пунктов H
1
, H
2
или H
3
. Введем гипотезы H
i
, где
H
i
означает, что путник выбрал в пункте B путь, ведущий в пункт
H
i
, i = 1, 2, 3. Ясно, что события H
i
несовместные и одно из них обя- зательно происходит, причем в силу равновозможности выбора дорог из
B в H
i
P(H
i
) =
1 3
. Остается вычислить условные вероятности P(A|H
i
),
которые легко найти, если рассматривать новое пространство элемен-
тарных исходов, соответствующее выбранной гипотезе H
i
Рис. 4.2.
Например, появление H
1
означает, что есть два равновозможных исхода (из пункта H
1
выходят две дороги), из которых лишь один благоприятствует событию A, т.е. P(A|H
1
) =
1 2
. Аналогично находим, что P(A|H
2
) =
1 4
и P(A|H
3
) = 0.
Согласно формуле 4.1 полной вероятности, получаем
P(A) =
1 3
·
µ
1 2
+
1 4
+ 0

= 0,25. #
Заметим, что данная задача может иметь техническую интерпретацию: сеть дорог — это сеть каналов передачи информации, а P(A) — вероятность передачи сообщения по такой сети.
Формула Байеса
Пусть по-прежнему некоторое событие A может произойти с одним из событий H
1
, . . . , H
n
, обра- зующих полную группу попарно несовместных событий, называемых, как уже отмечалось, гипо-
тезами. Предположим, что известны вероятности гипотез P(H
1
), . . . , P(H
n
) (P(H
i
) > 0, i = 1, n) и что в результате опыта событие A произошло, т.е. получена дополнительная информация. Спра- шивается, как “изменятся” вероятности гипотез, т.е. чему будут равны условные вероятности
P(H
1
|A), . . . , P(H
n
|A), если известны также условные вероятности P(A|H
1
), . . . , P(A|H
n
) события
A? Для ответа на этот вопрос используют следующую теорему.
Теорема 4.2 Пусть для некоторого события A, P(A) > 0, и гипотез H
1
, . . . , H
n
извест-
ны P(H
1
), . . . , P(H
n
) (P(H
i
) > 0, i = 1, n) и P(A|H
1
), . . . , P(A|H
n
). Тогда условная вероятность
P(H
i
|A), i = 1, n, гипотезы H
i
при условии события A определяется формулой Байеса
P(H
i
|A) =
P(H
i
)P(A|H
i
)
P(H
1
)P(A|H
1
) + . . . + P(H
n
)P(A|H
n
)
.
(4.2)
Доказательство. Согласно определению 3.1 условной вероятности, P(H
i
|A) =
P(AH
i
)
P(A)
. Выражая теперь по формуле умножения вероятностей P(AH
i
) через P(A|H
i
) и P(H
i
), получаем P(AH
i
) =
P(H
i
)P(A|H
i
). Поэтому P(H
i
|A) =
P(H
i
)P(A|H
i
)
P(A)
.
Подставляя вместо вероятности P(A) ее значение, вычисленное в соответствии с формулой (4.1)
полной вероятности, приходим к утверждению теоремы.
Формула Байеса находит широкое применение в математической статистике, теории принятия решений и их приложениях. Заметим, что вероятности P(H
1
), . . . , P(H
n
) обычно называют апри-
орными (т.е. полученными “до опыта”), а условные вероятности P(H
1
|A), . . . , P(H
n
|A) — апо-
стериорными (т.е. полученными “после опыта”).
Пример 4.2 Врач после осмотра больного считает, что возможно одно из двух заболеваний, кото- рые мы зашифруем номерами 1 и 2, причем степень своей уверенности в отношении правильности диагноза он оценивает как 40 % и 60 % соответственно. Для уточнения диагноза больного направ- ляют на анализ, исход которого дает положительную реакцию при заболевании 1 в 90 % случаев и при заболевании 2 — в 20 % случаев. Анализ дал положительную реакцию. Как изменится мнение врача после этого?
Обозначим через A событие, означающее, что анализ дал положительную реакцию. Естественно ввести следующие гипотезы: H
1
— имеет место заболевание 1; H
2
— имеет место заболевание 2. Из условий задачи ясно, что априорные вероятности гипотез равны: P(H
1
) = 0,4 и P(H
2
) = 0,6, а услов- ные вероятности события A при наличии гипотез H
1
и H
2
равны 0,9 и 0,2 соответственно. Используя формулу Байеса, находим P(H
i
|A) =
0,4 · 0,9 0,4 · 0,9 + 0,6 · 0,2
= 0,75. Итак, врач с большей уверенностью признает наличие заболевания 1.
17

Схема Бернулли
Повторные испытания — это последовательное проведение n раз одного и того же опыта или одно- временное проведение n одинаковых опытов. Например, при контроле уровня надежности прибора могут либо проводить n испытаний с одним и тем же прибором, если после отказа полностью восста- навливают его исходные свойства, либо ставить на испытания n опытных образцов этого прибора,
которые считают идентичными.
Определение 4.2 Схемой Бернулли (или последовательностью независимых одинако-
вых испытаний, или биномиальной схемой испытаний) называют последовательность испы- таний, удовлетворяющую следующим условиям:
1) при каждом испытании различают лишь два исхода: появление некоторого события A, на- зываемого “успехом”, либо появление его дополнения A, называемого “неудачей”;
2) испытания являются независимыми, т.е. вероятность успеха в k-м испытании не зависит от исходов всех испытаний до k-го;
3) вероятность успеха во всех испытаниях постоянна и равна P(A) = p.
Вероятность неудачи в каждом испытании обозначим q, т.е. P(A) = 1 − p = q.
Приведем примеры реальных испытаний, которые в той или иной степени “вписываются” в рамки сформулированной модели испытаний по схеме Бернулли.
1. Последовательное подбрасывание n раз симметричной монеты (здесь успехом является появ- ление “герба” с вероятностью p = 1/2) или последовательное бросание n раз игральной кости (здесь успехом можно считать, например, появление шестерки с вероятностью p = 1/6). Эти две реальные схемы испытаний являются примером идеального соответствия схеме испытаний Бернулли.
2. Последовательность n выстрелов стрелк´а по мишени можно лишь приближенно рассматри- вать как схему испытаний Бернулли, так как независимость результатов стрельбы может нарушать- ся либо из-за “пристрелки” спортсмена, либо вследствии его утомляемости.
3. Испытания
1   2   3   4   5   6   7   8   9   ...   21


написать администратору сайта