Лекции по теории вероятности. Лекции Тер. Вер.. Лекция 1 Случайные события
Скачать 1.66 Mb.
|
A или B равны нулю. Замечание 3.1 Из теоремы 3.3 следует, что если в определении 3.2 независимости выполняется одно из равенств (3.2) или (3.3), то выполняется автоматически и другое, т.е. в определении 3.2 достаточно потребовать выполнения любого одного из них. Пример 3.4 Из колоды карт, содержащей n = 36 карт, наугад извлекают одну карту. Обозначим через A событие, соответствующее тому, что извлеченная карта будет пиковой масти, а B — событие, соответствующее появлению “дамы”. Определим, являются ли зависимыми события A и B. После вычислений получаем P(A) = 9 36 = 1 4 , P(B) = 4 36 = 1 9 , P(AB) = 1 36 , P(B|A) = P(AB) P(A) = 1/36 9/36 = 1 9 = P(B), т.е. выполняется равенство (3.2), и поэтому события A и B независимы. Отметим, что в соответствии с замечанием 3.1, имеет место и равенство (3.3) P(A|B) = 1/36 4/36 = 1 4 = P(A). Следовательно, события A и B независимы. # Изменим теперь условия опыта, дополнительно добавив в колоду, допустим, N = 100 “пустых” карт (без рисунка). Изменится ли ответ? Имеем P(B) = 4 136 = 1 34 , т.е. безусловная вероятность события B уменьшилась. Однако условная вероятность P(B|A) = P(AB) P(A) = 1/136 9/136 = 1 9 не изменилась, т.е события A и B стали зависимыми. Теорема 3.4 Если события A и B независимые, то независимыми также являются пары собы- тий A и B, A и B, A и B, если вероятности соответствующих событий ненулевые. Доказательство. В силу теоремы 3.1 и независимости событий A и B имеем: P ¡ A|B ¢ = 1 − P ¡ A|B ¢ = 1 − P ¡ A ¢ = P ¡ A ¢ , что означает независимость событий A и B. Независимость остальных пар событий можно доказать аналогично. Определение 3.4 События A 1 , A 2 , . . . , A n называют независимыми в совокупности, если вероятность пересечения любых двух различных событий равна произведению вероятностей этих событий; вероятность пересечения любых трех событий равна произведению их вероятностей;. . .; вероятность пересечения всех событий равна произведению их вероятностей. Для событий A 1 , A 2 , . . . , A n , независимых в совокупности, имеет место утверждение, аналогич- ное утверждению теоремы 3.4. Теорема 3.5 Если события A 1 , A 2 , . . . , A n независимы в совокупности, то и события A 1 , A 2 , . . . , A n независимы в совокупности. # 14 Если только любые два события из данной совокупности являются независимыми, то говорят о попарной независимости событий из этой совокупности. Так же как и в случае двух событий, можно показать, что на вероятность каждого из независи- мых в совокупности событий не оказывает влияние появление или непоявление остальных событий. Замечание 3.2 В силу определения независимости событий в совокупности формула умно- жения вероятностей для независимых в совокупности событий имеет вид P(A 1 A 2 . . . A n ) = P(A 1 )P(A 2 ) . . . P(A n ). # Из независимости событий с ненулевыми вероятностями в совокупности, согласно теореме 3.3, следует их попарная независимость. Однако из попарной независимости, вообще говоря, независи- мость в совокупности не следует, что демонстрирует следующий пример. Пример 3.5 Опыт состоит в однократном подбрасывании тетраэдра, грани которого “пронумеро- ваны” следующим образом: на трех гранях стоят цифры 1, 2 и 3 соответственно (одна цифра на каждой из них), а на четвертой присутствуют все цифры 1, 2 и 3. Введем события A i — падение тетраэдра на грань, на которой присутствует цифра i, i = 1, 3. Покажем, что события A 1 , A 2 и A 3 попарно независимы, но зависимы в совокупности. Согласно классическому определению вероятности, получаем P(A i ) = 2 4 = 1 2 , i = 1, 3, P(A 2 |A 1 ) = P(A 1 A 2 ) P(A 1 ) = 1/4 2/4 = 1 2 . Аналогично P(A i |A j ) = 1 2 при любых i, j = 1, 3, i 6= j, т.е. события A 1 , A 2 и A 3 являются попарно независимыми. Однако, например, P(A 1 |A 2 A 3 ) = P(A 1 A 2 A 3 ) P(A 2 A 3 ) = 1/4 1/4 = 1 6= P(A 1 ), т. е. события A 1 , A 2 и A 3 зависимы в совокупности. # Заметим, что, когда говорят о независимости событий A 1 , . . . , A n , подразумевают именно неза- висимость событий в совокупности, в отличие от попарной независимости событий A 1 , . . . , A n Запишем формулу для вероятности объединения независимых событий. Пусть A = A 1 ∪ . . . ∪ A n . Тогда в соответствии с законом де Моргана A = A 1 . . . A n . Если события A 1 , . . . , A n независимые, то, согласно теореме 3.5, события A 1 , . . . , A n также независимые и, значит, P ¡ A ¢ = P ¡ A 1 ¢ . . . P ¡ A n ¢ . Отсюда окончательно получаем формулу для вероятности объединения независимых со- бытий: P(A 1 ∪ . . . ∪ A n ) = 1 − P(A 1 ∪ . . . ∪ A n ) = 1 − P(A 1 ∩ . . . ∩ A n ) = = 1 − P(A 1 ) . . . P(A n ) = 1 − [1 − P(A 1 )] . . . [1 − P(A n )] . Замечание 3.3 (о связи между совместными и зависимыми событиями). Между поняти- ями “несовместные” и “независимые” события имеется следующая связь: 1) если A и B — несовместные события (и P(A) 6= 0, и P(B) 6= 0), то они обязательно зависимые; 2) если A и B — совместные события, то они могут быть и зависимыми и независимыми; 3) если A и B — зависимые события, то они могут быть и совместными и несовместными. # 15 Лекция 4 Формула полной вероятности. Формула Байеса. Схема Бернулли Формула полной вероятности Предположим, что в результате опыта может произойти одно из n событий H 1 , H 2 , . . . , H n , которые удовлетворяют следующим двум условиям: 1) они являются попарно несовместными, т.е. H i H j = ∅ при i 6= j; 2) хотя бы одно из них обязательно должно произойти в результате опыта, другими словами, их объединение есть достоверное событие, т.е. H 1 ∪ . . . ∪ H n = Ω. Определение 4.1 События H 1 , H 2 , . . . , H n удовлетворяющие условиям 1 и 2, называют гипоте- зами. Заметим, что если события удовлетворяют второму из двух указанных требований, то их совокупность называют полной группой событий. Таким образом, гипотезы — это попарно несовместные события, образу- ющие полную группу событий. Пусть также имеется некоторое событие A и известны вероятности гипотез P(H 1 ), . . . , P(H n ), которые предполагаются ненулевыми, и услов- ные вероятности P(A|H 1 ), . . . , P(A|H n ) события A при выполнении этих гипотез. Задача состоит в вычислении безусловной вероятности события A. Для решения этой задачи используют следующую теорему. Рис. 4.1. Теорема 4.1 Пусть для некоторого события A и гипотез H 1 , . . . , H n известны P(H 1 ), . . . , P(H n ), которые положительны, и P(A|H 1 ), . . . , P(A|H n ). Тогда безусловную вероятность P(A) определя- ют по формуле P(A) = P(H 1 )P(A|H 1 ) + . . . + P(H n )P(A|H n ), (4.1) которую называют формулой полной вероятности. Доказательство. Представим событие A в виде A = AΩ = A(H 1 + . . . + H n ) = AH 1 + . . . + AH n (на рис. 4.1 область, соответствующая событию A, заштрихована). С учетом того, что события AH i , i = 1, n, несовместны, имеем P(A) = P(AH 1 ) + . . . + P(AH n ). В соответствии с формулой умножения вероятностей получаем P(AH 1 ) = P(H 1 )P(A|H 1 ), . . . , P(AH n ) = P(H n )P(A|H n ). Поэтому P(A) = P(H 1 )P(A|H 1 ) + . . . + P(H n )P(A|H n ). Формула полной вероятности при всей своей простоте играет весьма существенную роль в теории вероятностей. Пример 4.1 Путник должен попасть из пункта B в пункт A в соответствии со схемой дорог изоб- раженной на рис. 4.2. Выбор любой дороги в любом пункте равновозможен. Найдем вероятность события A — достижения путником намеченной цели. 16 Для того чтобы попасть в пункт A, путник должен пройти один из промежуточных пунктов H 1 , H 2 или H 3 . Введем гипотезы H i , где H i означает, что путник выбрал в пункте B путь, ведущий в пункт H i , i = 1, 2, 3. Ясно, что события H i несовместные и одно из них обя- зательно происходит, причем в силу равновозможности выбора дорог из B в H i P(H i ) = 1 3 . Остается вычислить условные вероятности P(A|H i ), которые легко найти, если рассматривать новое пространство элемен- тарных исходов, соответствующее выбранной гипотезе H i Рис. 4.2. Например, появление H 1 означает, что есть два равновозможных исхода (из пункта H 1 выходят две дороги), из которых лишь один благоприятствует событию A, т.е. P(A|H 1 ) = 1 2 . Аналогично находим, что P(A|H 2 ) = 1 4 и P(A|H 3 ) = 0. Согласно формуле 4.1 полной вероятности, получаем P(A) = 1 3 · µ 1 2 + 1 4 + 0 ¶ = 0,25. # Заметим, что данная задача может иметь техническую интерпретацию: сеть дорог — это сеть каналов передачи информации, а P(A) — вероятность передачи сообщения по такой сети. Формула Байеса Пусть по-прежнему некоторое событие A может произойти с одним из событий H 1 , . . . , H n , обра- зующих полную группу попарно несовместных событий, называемых, как уже отмечалось, гипо- тезами. Предположим, что известны вероятности гипотез P(H 1 ), . . . , P(H n ) (P(H i ) > 0, i = 1, n) и что в результате опыта событие A произошло, т.е. получена дополнительная информация. Спра- шивается, как “изменятся” вероятности гипотез, т.е. чему будут равны условные вероятности P(H 1 |A), . . . , P(H n |A), если известны также условные вероятности P(A|H 1 ), . . . , P(A|H n ) события A? Для ответа на этот вопрос используют следующую теорему. Теорема 4.2 Пусть для некоторого события A, P(A) > 0, и гипотез H 1 , . . . , H n извест- ны P(H 1 ), . . . , P(H n ) (P(H i ) > 0, i = 1, n) и P(A|H 1 ), . . . , P(A|H n ). Тогда условная вероятность P(H i |A), i = 1, n, гипотезы H i при условии события A определяется формулой Байеса P(H i |A) = P(H i )P(A|H i ) P(H 1 )P(A|H 1 ) + . . . + P(H n )P(A|H n ) . (4.2) Доказательство. Согласно определению 3.1 условной вероятности, P(H i |A) = P(AH i ) P(A) . Выражая теперь по формуле умножения вероятностей P(AH i ) через P(A|H i ) и P(H i ), получаем P(AH i ) = P(H i )P(A|H i ). Поэтому P(H i |A) = P(H i )P(A|H i ) P(A) . Подставляя вместо вероятности P(A) ее значение, вычисленное в соответствии с формулой (4.1) полной вероятности, приходим к утверждению теоремы. Формула Байеса находит широкое применение в математической статистике, теории принятия решений и их приложениях. Заметим, что вероятности P(H 1 ), . . . , P(H n ) обычно называют апри- орными (т.е. полученными “до опыта”), а условные вероятности P(H 1 |A), . . . , P(H n |A) — апо- стериорными (т.е. полученными “после опыта”). Пример 4.2 Врач после осмотра больного считает, что возможно одно из двух заболеваний, кото- рые мы зашифруем номерами 1 и 2, причем степень своей уверенности в отношении правильности диагноза он оценивает как 40 % и 60 % соответственно. Для уточнения диагноза больного направ- ляют на анализ, исход которого дает положительную реакцию при заболевании 1 в 90 % случаев и при заболевании 2 — в 20 % случаев. Анализ дал положительную реакцию. Как изменится мнение врача после этого? Обозначим через A событие, означающее, что анализ дал положительную реакцию. Естественно ввести следующие гипотезы: H 1 — имеет место заболевание 1; H 2 — имеет место заболевание 2. Из условий задачи ясно, что априорные вероятности гипотез равны: P(H 1 ) = 0,4 и P(H 2 ) = 0,6, а услов- ные вероятности события A при наличии гипотез H 1 и H 2 равны 0,9 и 0,2 соответственно. Используя формулу Байеса, находим P(H i |A) = 0,4 · 0,9 0,4 · 0,9 + 0,6 · 0,2 = 0,75. Итак, врач с большей уверенностью признает наличие заболевания 1. 17 Схема Бернулли Повторные испытания — это последовательное проведение n раз одного и того же опыта или одно- временное проведение n одинаковых опытов. Например, при контроле уровня надежности прибора могут либо проводить n испытаний с одним и тем же прибором, если после отказа полностью восста- навливают его исходные свойства, либо ставить на испытания n опытных образцов этого прибора, которые считают идентичными. Определение 4.2 Схемой Бернулли (или последовательностью независимых одинако- вых испытаний, или биномиальной схемой испытаний) называют последовательность испы- таний, удовлетворяющую следующим условиям: 1) при каждом испытании различают лишь два исхода: появление некоторого события A, на- зываемого “успехом”, либо появление его дополнения A, называемого “неудачей”; 2) испытания являются независимыми, т.е. вероятность успеха в k-м испытании не зависит от исходов всех испытаний до k-го; 3) вероятность успеха во всех испытаниях постоянна и равна P(A) = p. Вероятность неудачи в каждом испытании обозначим q, т.е. P(A) = 1 − p = q. Приведем примеры реальных испытаний, которые в той или иной степени “вписываются” в рамки сформулированной модели испытаний по схеме Бернулли. 1. Последовательное подбрасывание n раз симметричной монеты (здесь успехом является появ- ление “герба” с вероятностью p = 1/2) или последовательное бросание n раз игральной кости (здесь успехом можно считать, например, появление шестерки с вероятностью p = 1/6). Эти две реальные схемы испытаний являются примером идеального соответствия схеме испытаний Бернулли. 2. Последовательность n выстрелов стрелк´а по мишени можно лишь приближенно рассматри- вать как схему испытаний Бернулли, так как независимость результатов стрельбы может нарушать- ся либо из-за “пристрелки” спортсмена, либо вследствии его утомляемости. 3. Испытания |