Лекции теория вероятностей 2019. Вероятностное пространство
Скачать 2.67 Mb.
|
Какая из описанных величин является гипергеометрической? 1. Порядковый номер в списке группы наугад выбранного студента группы 2. Студент Фадеев тянет билет. Если билет не первый, то билет замешивается обратно и вытягивается заново. Число неудачных билетов до вытащенного первого. 18 3. Число студентов ФКИ, знающих доказательство теоремы о неявной функции, среди десяти наугад опро- шенных. 4. Каждый день Вероника Евгеньевна выбирает наугад человека из группы, который будет мыть доску в аудитории. Количество девочек, выбранных за месяц. Пример 3.4. Покажем, что геометрическое распределение действительно соответствуют указанному физиче- скому описанию. Здесь есть некоторое неудобство — нам сейчас сложно ввести вероятностное пространство для бесконечного числа бросаний монеты, потому что возможными исходами будут все бесконечные последовательности из нулей и единиц, которых несчетное число. Поэтому мы будем искать именно P 𝑋 (𝑘) = P(𝜔 : 𝑋(𝜔) = 𝑘) . Для этого нам хватит опыта в виде 𝑘+1 бросаний монеты, то есть схемы Бернулли: P((𝑖 1 , . . . , 𝑖 𝑘+1 ) : 𝑋((𝑖 1 , . . . , 𝑖 𝑘+1 )) = 𝑘) = P((0, 0, . . . , 0, 1)) = (1 − 𝑝) 𝑘 𝑝. Здесь мы пользуемся тем, что нам подходит ровно один исход — 𝑘 первых бросков выпадала решка, а последний раз орел. Пример 3.5. Покажем, что отрицательное биномиальное распределение действительно соответствуют указан- ному физическому описанию. Опять же будем искать именно P 𝑋 (𝑘) = P(𝜔 : 𝑋(𝜔) = 𝑘) . Для этого нам хватит опыта в виде 𝑘 + 𝑟 бросаний монеты, то есть схемы Бернулли: P((𝑖 1 , . . . , 𝑖 𝑘+𝑟 ) : 𝑋((𝑖 1 , . . . , 𝑖 𝑘+1 )) = 𝑘) = P((𝑖 1 , . . . , 𝑖 𝑘+𝑟−1 , 1) : 𝑖 1 + · · · + 𝑖 𝑘+𝑟−1 = 𝑟 − 1) = 𝐶 𝑟−1 𝑘+𝑟−1 𝑝 𝑟 (1 − 𝑝) 𝑘 Пример 3.6. Покажем, что гипергеометрическое распределение действительно соответствуют указанному фи- зическому описанию. Пространство исходов для опыта вытягивания шаров представляет собой Ω = {{𝑖 1 , . . . , 𝑖 𝑛 } : 𝑖 𝑗 ∈ {1, . . . , 𝑁 }}, 𝑖 𝑗 ̸= 𝑖 𝑙 , 𝑗 ̸= 𝑙}. Всего в данном множестве 𝐶 𝑛 𝑁 , которые из симметрии имеют равные вероятности. Подходящие под событие 𝑋 = 𝑘 исходы это те, в которых из 𝑛 чисел ровно 𝑘 не больше 𝑀. Таких исходов 𝐶 𝑘 𝑀 𝐶 𝑛−𝑘 𝑁 −𝑀 штук. Отсюда получаем искомое соотношение P 𝑋 (𝑘) = P(𝜔 : 𝑋(𝜔) = 𝑘) = 𝐶 𝑘 𝑀 𝐶 𝑛−𝑘 𝑁 −𝑀 𝐶 𝑛 𝑁 3.4 Случайные векторы Определение 3.4. Случайным вектором называют отображение ⃗ 𝑋 : Ω → R 𝑑 Можно рассматривать случайный вектор ⃗ 𝑋 как набор величин 𝑋 1 , . . . , 𝑋 𝑑 на одном вероятностном простран- стве. Определение 3.5. Распределением вероятностей случайного вектора ⃗ 𝑋 называют отображение P 𝑋 : 2 R 𝑑 → [0, 1] , заданное соотношением P ⃗ 𝑋 (𝐵) := P(𝜔 : ⃗ 𝑋(𝜔) ∈ 𝐵) = ∑︁ 𝑖: ⃗ 𝑋(𝜔 𝑖 )∈𝐵 𝑝 𝑖 , 𝐵 ⊆ R 𝑑 где 𝑝 𝑖 = P(𝜔 𝑖 ) . Здеcь 2 R 𝑑 — множество всех подмножеств R 𝑑 Опять же распределение вероятностей в нашем случае полностью задается набором вероятностей P ⃗ 𝑋 (⃗ 𝑥 𝑖 ) = P(𝜔 : ⃗ 𝑋(𝜔) = ⃗ 𝑥 𝑖 ) для всевозможных ⃗𝑥 𝑖 из множества 𝒳 = Im 𝑋 (то есть всевозможных значений, принимаемых случайным вектором). Опять же будем называть функцию P ⃗ 𝑋 (⃗ 𝑥) = P(𝜔 : ⃗ 𝑋(𝜔) = ⃗ 𝑥) 19 (вероятностной) функцией масс. Функцию масс можно задавать таблицей распределения. Так в случае 𝑑 = 2 можно задавать удобную двумерную таблицу 𝑥 1 𝑥 2 𝑥 𝑛 𝑦 1 𝑝 1,1 𝑝 1,2 𝑝 1,𝑛 𝑦 2 𝑝 2,1 𝑝 2,2 𝑝 2,𝑛 𝑦 𝑚 𝑝 𝑚,1 𝑝 𝑚,2 𝑝 𝑚,𝑛 Вопрос 3.2. Вектор (𝑋, 𝑌 ) имеет таблицу распределения, приведенную ниже. Найти P(𝑋 = 𝑌 ). 1 2 3 0 0.3 0 0.1 2 0.1 0.05 0.15 3 0.05 0.15 0.1 Пример 3.7. Схема Бернулли задает случайный вектор ⃗ 𝑋 = (𝑋 1 , . . . , 𝑋 𝑛 ) , описывающий результаты бросков всех монет ⃗ 𝑋(𝜔) = ⃗ 𝑋((𝑖 1 , . . . , 𝑖 𝑛 )) = (𝑖 1 , . . . , 𝑖 𝑛 ). Пример 3.8. Представим себе задачу размещения по 𝑛 ячейкам 𝑁 предметов независимо с вероятностями 𝑝 1 , . . . , 𝑝 𝑛 , соответственно. Этому эксперименту соответствует вероятностное пространство Ω = {(𝑖 1 , . . . , 𝑖 𝑁 ) : 𝑖 𝑗 ∈ {1, . . . , 𝑛}}, P((𝑖 1 , . . . , 𝑖 𝑁 )) = 𝑝 𝑖 1 · · · 𝑝 𝑖 𝑁 = 𝑝 #{𝑗:𝑖 𝑗 =1} 1 · · · 𝑝 #{𝑗:𝑖 𝑗 =𝑛} 𝑛 Рассмотрим случайный вектор 𝜈 1 (𝑖 1 , . . . , 𝑖 𝑁 ) = #{𝑗 : 𝑖 𝑗 = 1}, . . . , 𝜈 𝑛 (𝑖 1 , . . . , 𝑖 𝑁 ) = #{𝑗 : 𝑖 𝑗 = 𝑛}. Его функция масс задается формулой P ⃗ 𝜈 (𝑥 1 , . . . , 𝑥 𝑛 ) = P((𝑖 1 , . . . , 𝑖 𝑁 ) : 𝜈 1 (𝑖 1 , . . . , 𝑖 𝑁 ) = 𝑥 1 , . . . , 𝜈 𝑛 (𝑖 1 , . . . , 𝑖 𝑁 ) = 𝑥 𝑛 ) = 𝑝 𝑥 1 1 · · · 𝑝 𝑥 𝑛 𝑛 𝑀 𝑥 1 ,...,𝑥 𝑛 , где 𝑥 1 + · · · + 𝑥 𝑛 = 𝑁 , 𝑀 𝑥 1 ,...,𝑥 𝑛 — количество наборов (𝑖 1 , . . . , 𝑖 𝑁 ) , в которых ровно 𝑥 1 единиц, 𝑥 2 двоек,. . . , 𝑥 𝑛 чисел 𝑛. Найдем 𝑀 𝑥 1 ,...,𝑥 𝑛 . Представим себе, что все единицы, двойки и так далее индивидуальны и отличаются друг от друга. Тогда число способов расставить наши числа 𝑁!. Но с точки зрения исходной задачи все возможные перестановки, которые меняют единицы между собой, двойки между собой и так далее, оставляют один исход тем же. Таких перестановок 𝑥 1 ! 𝑛 ! . Следовательно, 𝑀 𝑥 1 ,...,𝑥 𝑛 = 𝑁 ! 𝑥 1 ! 𝑛 ! Значит, P ⃗ 𝜈 (𝑥 1 , . . . , 𝑥 𝑛 ) = 𝑁 ! 𝑥 1 ! 𝑛 ! 𝑝 𝑥 1 1 · · · 𝑝 𝑥 𝑛 𝑛 Распределение с такой функцией масс называют полиномиальным распределением 𝑃 𝑜𝑙𝑦𝑛𝑜𝑚𝑖𝑎𝑙(𝑁, 𝑝 1 , . . . , 𝑝 𝑛 ) 3.5 Независимые алгебры Нам понадобится понятие независимых случайных величин. Для работы с ними нам будет полезно понятие независимых алгебр. Напомним определение с первой лекции: Определение 3.6. Алгеброй подмножеств множества Ω называют такой набор подмножеств 𝒜, что 1. Ω ∈ 𝒜; 2. если 𝐴 ∈ 𝒜, то 𝐴 ∈ 𝒜; 20 3. если 𝐴 ∈ 𝒜, 𝐵 ∈ 𝒜, то 𝐴 ∪ 𝐵 ∈ 𝒜. Как мы говорили в прошлый раз, алгебра также содержит вместе с любыми множествами 𝐴, 𝐵 множества 𝐴 ∩ 𝐵 , 𝐴 ∖ 𝐵, 𝐴∆𝐵. Вопрос 3.3. Какая из названных систем подмножеств множества {0, 1, 2, 3, 4} является алгеброй? 1. ∅, {0, 1}, {2, 3, 4}, {0, 1, 2}, {3, 4}, {0, 1, 2, 3, 4}; 2. ∅, {0, 1}, {2, 3}, {0, 1, 2, 3}, {4}, {0, 1, 2, 3, 4}; 3. ∅, {0}, {1}, {0, 1}, {2, 3, 4}, {0, 2, 3, 4}, {1, 2, 3, 4}, {0, 1, 2, 3, 4} 4. {0, 1}, {2, 3, 4}, {0, 1, 2, 3, 4} Определение 3.7. Алгеброй подмножеств Ω, порожденной разбиением 𝐷 1 , . . . , 𝐷 𝑛 , называют систему множеств {𝐷 𝑖 1 + · · · + 𝐷 𝑖 𝑘 , 1 ≤ 𝑖 1 < 𝑖 2 < . . . < 𝑖 𝑘 ≤ 𝑛, 𝑘 ≥ 0}, то есть множество всевозможных объединений подмножеств Ω. Алгебру, порожденную 𝐷 1 , . . . , 𝐷 𝑛 обозначают 𝜎(𝐷 1 , . . . , 𝐷 𝑛 ) . Здесь 𝑛 может быть как конечным, так и бесконечным. Проверьте, что это действительно алгебра, пользуясь определением разбиения. Легко видеть, что в ней в точности 2 𝑛 событий (каждое из 𝑛 порождающих можно либо выбрать, либо не выбрать). Пример 3.9. Самой простой такой алгеброй будет 𝜎(Ω) = {∅, Ω}. Чуть более сложной 𝜎(𝐴, 𝐴) = {∅, Ω, 𝐴, 𝐴}. Определение 3.8. Алгебры 𝒜 1 , . . . , 𝒜 𝑛 подмножеств Ω называют независимыми, если 𝐴 1 , . . . , 𝐴 𝑛 независимы для любых 𝐴 𝑖 ∈ 𝒜 𝑖 Пример 3.10. Рассмотрим Ω = {1, 2, 3, 4} с классически заданной вероятностью. Рассмотрим алгебры 𝒜 1 = {∅, Ω, {1, 2}, {3, 4}} , 𝒜 2 = {∅, Ω, {1, 3}, {2, 4}} . Покажем, что они независимы. Пусть 𝐴 1 ∈ 𝒜 1 , 𝐴 2 ∈ 𝒜 2 . Если одно из множеств является Ω или ∅, то оно автоматически независимо с другим. Тогда 𝐴 1 = 𝐵 𝛿 1 1 , 𝐴 2 = 𝐵 𝛿 2 2 , где 𝐵 1 = {1, 2} , 𝐵 2 = {1, 3} , 𝛿 1 , 𝛿 2 ∈ {0, 1} . События 𝐵 1 , 𝐵 2 независимы. Но тогда в силу леммы, доказанной в конце прошлой лекции, независимы 𝐵 𝛿 1 1 и 𝐵 𝛿 2 2 . Значит, 𝒜 1 и 𝒜 2 независимы. Теорема 3.1. Пусть алгебра 𝒜 𝑖 порождается разбиением 𝐷 𝑖,1 , . . . , 𝐷 𝑖,𝑚 𝑖 , 𝑖 ≤ 𝑛. Тогда 𝒜 1 , . . . , 𝒜 𝑛 независимы тогда и только тогда, когда 𝐷 1,𝑖 1 , . . . , 𝐷 𝑛,𝑖 𝑛 независимы при любых 𝑖 1 ≤ 𝑚 1 , . . . , 𝑖 𝑘 ≤ 𝑚 𝑘 Доказательство. Прямо из определения независимости алгебр автоматически следует независимость указан- ных событий, поэтому доказывать достаточно только в обратную сторону. Пусть 𝐷 1,𝑖 1 , . . . , 𝐷 𝑛,𝑖 𝑛 независимы при любых 𝑖 1 ≤ 𝑚 1 , . . . , 𝑖 𝑘 ≤ 𝑚 𝑘 . Покажем, что независимы 𝒜 1 , . . . , 𝒜 𝑛 Мы должны выбрать произвольные события 𝐵 1 ∈ 𝒜 1 , . . . , 𝐵 𝑛 ∈ 𝒜 𝑛 и проверить их независимость. В силу леммы, доказанной в конце прошлого занятия, для этого достаточно проверить, что P(𝐵 𝛿 1 1 · · · 𝐵 𝛿 𝑛 𝑛 ) = P(𝐵 𝛿 1 1 ) · · · P(𝐵 𝛿 𝑛 𝑛 ) при любых 𝛿 1 , . . . , 𝛿 𝑛 ∈ {0, 1} . Однако, поскольку 𝐵 𝛿 𝑖 𝑖 также лежат в 𝒜 𝑖 , то достаточно доказать, что P(𝐵 1 · · · 𝐵 𝑛 ) = P(𝐵 1 ) · · · P(𝐵 𝑛 ) для всех 𝐵 𝑖 ∈ 𝒜 𝑖 . При этом из определения 𝒜 𝑖 события 𝐵 𝑖 представляют собой объединения 𝐷 𝑖,𝑗 по каким-то 𝑗. Для удобства будем считать, что 𝐵 𝑖 = 𝐷 𝑖,1 + · · · + 𝐷 𝑖,𝑙 𝑖 , 𝑙 𝑖 ≤ 𝑚 𝑖 Тогда P(𝐵 1 · · · 𝐵 𝑛 ) = 𝑙 1 ∑︁ 𝑗 1 =1 𝑙 𝑛 ∑︁ 𝑗 𝑛 =1 P(𝐷 1,𝑗 1 · · · 𝐷 𝑛,𝑗 𝑛 ) = 𝑙 1 ∑︁ 𝑗 1 =1 · · · 𝑙 𝑛 ∑︁ 𝑗 𝑛 =1 P(𝐷 1,𝑗 1 ) . . . P(𝐷 𝑛,𝑗 𝑛 ) = 𝑙 1 ∑︁ 𝑗 1 =1 P(𝐷 1,𝑗 1 ) · · · 𝑙 𝑛 ∑︁ 𝑗 𝑛 =1 P(𝐷 𝑛,𝑗 𝑛 ) = P(𝐵 1 ) · · · P(𝐵 𝑛 ). Теорема доказана. Отметим, что по существу нам не требуется конечность 𝑚 𝑖 21 Определение 3.9. Алгеброй, порожденной случайной величиной 𝑋, называют алгебру, порожденную разбие- нием {𝑋 = 𝑥} при всех 𝑥 ∈ 𝒳 . Будем обозначать такую алгебру 𝜎(𝑋). Аналогичным образом определяется алгебра 𝜎( ⃗ 𝑋) , порожденная вектором ⃗ 𝑋 Определение 3.10. Случайная величина 𝑋 называется измеримой относительно алгебры 𝒜, если {𝜔 : 𝑋(𝜔) = 𝑥} ∈ 𝒜 при всех 𝑥 ∈ 𝒳 . Иначе говоря, порожденная 𝑋 алгебра должна содержаться в 𝒜. При этом событие {𝜔 : 𝑋(𝜔) ∈ 𝐵} при любом 𝐵 ⊂ R лежит в 𝒜, поскольку является объединением конечного или счетного числа событий {𝜔 : 𝑋(𝜔) = 𝑥} по 𝑥 ∈ 𝐵. Лемма 3.1. Пусть 𝑓 — функция из 𝒳 в R. Тогда величина 𝑓 (𝑋) измерима около 𝜎(𝑋). Доказательство. Доказательство вытекает из соотношения {𝜔 : 𝑓 (𝑋(𝜔)) ∈ 𝐵} = {𝜔 : 𝑋(𝜔) ∈ 𝑓 −1 (𝐵)} ∈ 𝜎(𝑋), где 𝑓 −1 (𝐵) = {𝑥 : 𝑓 (𝑥) ∈ 𝐵} — полный прообраз множества. 3.6 Независимые случайные величины Определение 3.11. Величины 𝑋 1 , . . . , 𝑋 𝑛 , заданные на одном вероятностном пространстве (Ω, ℱ, P), называ- ются независимыми, если для любых множеств 𝐵 1 , . . . , 𝐵 𝑛 из R P(𝜔 : 𝑋 1 (𝜔) ∈ 𝐵 1 , . . . , 𝑋 𝑛 (𝜔) ∈ 𝐵 𝑛 ) = P(𝜔 : 𝑋 1 (𝜔) ∈ 𝐵 1 ) · · · P(𝜔 : 𝑋 𝑛 (𝜔) ∈ 𝐵 𝑛 ) Лемма 3.2. Следующие три утверждения равносильны: 1. Величины 𝑋 1 , . . . , 𝑋 𝑛 независимы; 2. Алгебры 𝜎(𝑋 1 ), . . . , 𝜎(𝑋 𝑛 ) независимы; 3. Для любого ⃗ 𝑥 P ⃗ 𝑋 (⃗ 𝑥) = P 𝑋 1 (𝑥 1 ) · · · P 𝑋 𝑛 (𝑥 𝑛 ). Доказательство. Первое утверждение равносильно второму напрямую в силу определения независимости слу- чайных величин. Третье равносильно второму в силу теоремы 3.1 , поскольку алгебры 𝜎(𝑋 𝑖 ) порождаются раз- биением {𝑋 𝑖 = 𝑥} , 𝑥 ∈ R. Таким образом, проверять независимость можно на основе функций масс. Вопрос 3.4. Вектор (𝑋, 𝑌 ) имеет таблицу распределения, приведенную ниже. Зависимы ли 𝑋, 𝑌 ? 𝑋 и 𝑌 2 ? 1 2 0 0.2 0.6 2 0.05 0.15 Пример 3.11. Бернуллиевские величины 𝑋 1 , . . . , 𝑋 𝑛 являются независимыми, поскольку P ⃗ 𝑋 (𝑥 1 , . . . , 𝑥 𝑛 ) = 𝑝 𝑥 1 +···+𝑥 𝑛 1 (1 − 𝑝 1 ) 𝑛−𝑥 1 −𝑥 2 −···−𝑥 𝑛 = 𝑝 𝑥 1 1 (1 − 𝑝 1 ) 1−𝑥 1 · · · 𝑝 𝑥 𝑛 𝑛 (1 − 𝑝 𝑛 ) 1−𝑥 𝑛 = P 𝑋 1 (𝑥 1 ) · · · P 𝑋 𝑛 (𝑥 𝑛 ). Это вполне естественно, ведь если эксперименты независимы, то и связанные с ними величины должны быть независимы. Лемма 3.3. Пусть Ω = Ω 1 × · · · × Ω 𝑛 , ℱ = 2 Ω , P((𝜔 1,𝑖 1 , . . . , 𝜔 𝑛,𝑖 𝑛 )) = P 1 (𝜔 1,𝑖 1 ) · · · P 𝑛 (𝜔 𝑛,𝑖 𝑛 ) прямое произведение вероятностных пространств. Пусть набор величин 𝑋 1 , . . . , 𝑋 𝑛 таков, что 𝑋 𝑖 (𝜔 1 , . . . , 𝜔 𝑛 ) зависит только от 𝜔 𝑖 при любом 𝑖. Тогда 𝑋 1 , . . . , 𝑋 𝑛 независимы. 22 Доказательство. При каждом 𝑖 ∈ {1, . . . , 𝑛} рассмотрим алгебры 𝒜 𝑖 , где 𝒜 𝑖 порождена разбиением Ω 1 × · · · × Ω 𝑖−1 × {𝜔 𝑖,𝑗 } × Ω 𝑖+1 × · · · × Ω 𝑛 при 𝑗 = 1, . . . , 𝑛 𝑖 Поскольку в силу определения прямого произведения указанные разбиения независимы, алгебры 𝒜 𝑖 также независимы. Но тогда независимы и 𝜎(𝑋 𝑖 ) , поскольку 𝜎(𝑋 𝑖 ) ⊂ 𝒜 𝑖 при любом 𝑖 ∈ {1, . . . , 𝑛}. Пример 3.12. Компоненты полиномиального вектора (𝑋 1 , . . . , 𝑋 𝑛 ) ∼ 𝑃 𝑜𝑙𝑦𝑛𝑜𝑚𝑖𝑎𝑙(𝑁, 𝑝 1 , . . . , 𝑝 𝑛 ) зависимы, если хотя бы два из 𝑝 1 , . . . , 𝑝 𝑛 положительны. Пусть, скажем, 𝑝 1 > 0 , 𝑝 2 > 0 . Тогда P(𝜔 : 𝑋 1 (𝜔) = 𝑁 ) = 𝑝 𝑁 1 , P(𝜔 : 𝑋 2 (𝜔) = 𝑁 ) = 𝑝 𝑁 2 , P(𝜔 : 𝑋 1 (𝜔) = 𝑁, 𝑋 2 (𝜔) = 𝑁 ) = 0 ̸= P(𝜔 : 𝑋 1 (𝜔) = 𝑁, 𝑋 2 (𝜔) = 𝑁 ). Лемма 3.4. Пусть величины 𝑋 1 , . . . , 𝑋 𝑛 независимы, 𝑓 1 , . . . , 𝑓 𝑛 — некоторые функции. Тогда 𝑓 1 (𝑋 1 ), . . . , 𝑓 𝑛 (𝑋 𝑛 ) независимы. Доказательство. Доказательство вытекает из того, что 𝜎(𝑓 𝑖 (𝑋 𝑖 )) содержатся в 𝜎(𝑋 𝑖 ) ввиду леммы 3.1 3.7 Независимость случайных векторов Определение 3.12. Векторы ⃗ 𝑋 1 , . . . , ⃗ 𝑋 𝑛 размерностей 𝑑 1 , . . . , 𝑑 𝑛 , соответственно, заданные на одном вероят- ностном пространстве (Ω, ℱ, P), называются независимыми, если для любых множеств 𝐵 1 ∈ R 𝑑 1 , . . . , 𝐵 𝑛 ∈ R 𝑑 𝑛 P(𝜔 : ⃗ 𝑋 1 (𝜔) ∈ 𝐵 1 , . . . , ⃗ 𝑋 𝑛 (𝜔) ∈ 𝐵 𝑛 ) = P(𝜔 : ⃗ 𝑋 1 (𝜔) ∈ 𝐵 1 ) · · · P(𝜔 : ⃗ 𝑋 𝑛 (𝜔) ∈ 𝐵 𝑛 ) Лемма 3.5. Следующие три утверждения равносильны: 1. Векторы ⃗ 𝑋 1 , . . . , ⃗ 𝑋 𝑛 независимы; 2. Алгебры 𝜎( ⃗ 𝑋 1 ), . . . , 𝜎( ⃗ 𝑋 𝑛 ) независимы; 3. Для любых ⃗ 𝑥 = (⃗ 𝑥 1 , . . . , ⃗ 𝑥 𝑛 ) P ⃗ 𝑋 (⃗ 𝑥) = P ⃗ 𝑋 1 (⃗ 𝑥 1 ) · · · P ⃗ 𝑋 𝑛 (⃗ 𝑥 𝑛 ). Доказательство совершенно аналогично лемме 3.2 Пример 3.13. Пусть 𝑋 1 , 𝑋 2 — схема Бернулли. Тогда векторы (𝑋 1 , 1−𝑋 1 ) и (𝑋 2 , 1−𝑋 2 ) независимы, поскольку P((𝑋 1 , 1 − 𝑋 1 ) = (𝑖, 1 − 𝑖), (𝑋 2 , 1 − 𝑋 2 ) = (𝑗, 1 − 𝑗)) = P(𝑋 1 = 𝑖)P(𝑋 2 = 𝑗) = P((𝑋 1 , 1 − 𝑋 1 ) = (𝑖, 1 − 𝑖))P((𝑋 2 , 1 − 𝑋 2 ) = (𝑗, 1 − 𝑗)). Отметим также аналог леммы 3.4 для векторов. Лемма 3.6. Пусть величины ⃗ 𝑋 1 , . . . , ⃗ 𝑋 𝑛 независимы, 𝑓 1 , . . . , 𝑓 𝑛 — некоторые функции. Тогда 𝑓 1 ( ⃗ 𝑋 1 ), . . . , 𝑓 𝑛 ( ⃗ 𝑋 𝑛 ) независимы. 3.8 Ответы на вопросы 1. Первая из них равномерная, вторая геометрическая, четвертая биномиальная, а вот третья — гипергео- метрическая. 2. Чтобы найти P(𝑋 = 𝑌 ), сложим P(𝑋 = 𝑌 = 2) и P(𝑋 = 𝑌 = 3). Итого P(𝑋 = 𝑌 ) = 0.05 + 0.1 = 0.15. 3. ∅, {0}, {1}, {0, 1}, {2, 3, 4}, {0, 2, 3, 4}, {1, 2, 3, 4}, {0, 1, 2, 3, 4}. Первая не содержит {2} — разности {0, 1, 2} и {0, 1} , вторая {4} — дополнения до {0, 1, 2, 3, }, четвертая — самого Ω. 4. Прямо по определению 𝑋 и 𝑌 независимы. У 𝑋 и 𝑌 2 таблица распределения та же самая. Отличие лишь в подписи второй строки, но это не влияет на независимость. 23 4 Математическое ожидание в дискретном случае 4.1 Определение математического ожидания Пусть (Ω, 2 Ω , P) — вероятностное пространство, 𝑋 — случайная величина на нем. Мы хотим определить сред- нее значение случайной величины 𝑋, заданной на этом пространстве. Опять же, я сделаю это последовательно, демонстрируя, что у нас нет альтернативы данному определению. При желании вы можете пропустить часть 4.1 и сразу перейти к 4.2. 4.1.1 Классический случай Если на Ω вероятность задана классическим образом, то логично определять среднее значение соотношением E𝑋 = 1 𝑁 𝑁 ∑︁ 𝑘=1 𝑋(𝜔 𝑘 ) = 𝑁 ∑︁ 𝑘=1 𝑋(𝜔 𝑘 )P(𝜔 𝑘 ). Физически это центр масс системы точек 𝑋(𝜔 1 ), . . . , 𝑋(𝜔 𝑁 ) с равными массами. 4.1.2 Случай рациональных вероятностей Если вероятности исходов Ω рациональны, то аналогично тому, как это было сделано на второй лекции, мы можем ввести новое пространство ̃︀ Ω с классически заданной вероятностью ̃︀ 𝑃 , где каждый исход 𝜔 𝑘 будет состоять из нескольких частей ̃︀ 𝜔 𝑘,1 ,. . . , ̃︀ 𝜔 𝑘,𝑛 𝑘 . Рассмотрим случайную величину ̃︀ 𝑋 на ̃︀ Ω , заданную соотношением ̃︀ 𝑋( ̃︀ 𝜔 𝑘,𝑖 ) = 𝑋(𝜔 𝑘 ) при всех 𝑘, 𝑖. Величина ̃︀ 𝑋 описывает ту же самую физическую характеристику, что и 𝑋, просто заданную на другом вероятностном пространстве. Поскольку мы решили, что E ̃︀ 𝑋 = 𝑁 ∑︁ 𝑘=1 𝑛 𝑘 ∑︁ 𝑖=1 ̃︀ 𝑋( ̃︀ 𝜔 𝑘,𝑖 ) ̃︀ P( ̃︀ 𝜔 𝑘,𝑖 ) = 𝑁 ∑︁ 𝑘=1 𝑋(𝜔 𝑘 ) 𝑛 𝑘 ∑︁ 𝑖=1 ̃︀ P( ̃︀ 𝜔 𝑘,𝑖 ) = 𝑁 ∑︁ 𝑘=1 𝑋(𝜔 𝑘 )P(𝜔 𝑘 ), то и E𝑋 естественно определять тем же соотношением. Физически это все еще центр масс системы точек 𝑋(𝜔 1 ) ,. . . ,X(𝜔 𝑁 ) с разными массами. 4.1.3 Случай общего конечного пространства Если вероятности не являются рациональными, то фиксируем 𝜀 > 0 и рассмотрим пространство ̃︀ Ω , состоящее из исходов ̃︀ 𝜔 𝑖 , 𝑖 ≤ 𝑁 + 1, причем ̃︀ P( ̃︀ 𝜔 𝑖 ) ≤ P(𝜔 𝑖 ) ≤ ̃︀ P( ̃︀ 𝜔 𝑖 ) + 𝜀 𝑁 , ̃︀ P( ̃︀ 𝜔 𝑖 ) ∈ Q, 𝑖 ≤ 𝑁, ̃︀ P( ̃︀ 𝜔 𝑁 +1 ) < 𝜀 Пусть min 𝑋(𝜔 𝑖 ) = 𝑚 − , max 𝑋(𝜔 𝑖 ) = 𝑚 + Рассмотрим две случайных величины ̃︀ 𝑋 1 ( ̃︀ 𝜔 𝑖 ) = ̃︀ 𝑋 2 ( ̃︀ 𝜔 𝑖 ) = 𝑋 1 (𝜔 𝑖 ), 𝑖 ≤ 𝑁, ̃︀ 𝑋 1 ( ̃︀ 𝜔 𝑁 +1 ) = 𝑚 − , ̃︀ 𝑋 2 ( ̃︀ 𝜔 𝑁 +1 ) = 𝑚 + Можно представить себе, что мы отрезали по кусочку от каждого исхода 𝜔 𝑖 , чтобы сделать их рациональными, а затем оставшиеся "обрезки"собрали в новый исход. При этом новые величины на обрезанных кусочках мы положили теми же, что и раньше, а на обрезках первую величину сделали минимальным из того, чем была 𝑋, а вторую — максимальным. Тогда естественно считать, что величина E ̃︀ 𝑋 1 = 𝑁 ∑︁ 𝑘=1 ̃︀ 𝑋 1 ( ̃︀ 𝜔 𝑘 )P( ̃︀ 𝜔 1 ) + 𝑚 − P( ̃︀ 𝜔 𝑁 +1 ) = 𝑁 ∑︁ 𝑘=1 𝑋(𝜔 𝑘 ) ̃︀ P( ̃︀ 𝜔 1 ) + 𝑚 − P( ̃︀ 𝜔 𝑁 +1 ) 24 меньше, чем должно быть E𝑋, а E ̃︀ 𝑋 2 = 𝑁 ∑︁ 𝑘=1 ̃︀ 𝑋 1 ( ̃︀ 𝜔 𝑘 )P( ̃︀ 𝜔 1 ) + 𝑚 + P( ̃︀ 𝜔 𝑁 +1 ) = 𝑁 ∑︁ 𝑘=1 𝑋(𝜔 𝑘 ) ̃︀ P( ̃︀ 𝜔 𝑘 ) + 𝑚 + P( ̃︀ 𝜔 𝑁 +1 ) больше. При этом E ̃︀ 𝑋 1 ≤ 𝑁 ∑︁ 𝑘=1 𝑋(𝜔 𝑘 )P(𝜔 𝑘 ) + (max(0, 𝑚 + ) − min(0, 𝑚 − ))𝜀, E ̃︀ 𝑋 2 ≥ 𝑁 ∑︁ 𝑘=1 𝑋(𝜔 𝑘 )P(𝜔 𝑘 ) − (max(0, 𝑚 + ) − min(0, 𝑚 − ))𝜀. Следовательно, E𝑋 должно быть в диапазоне 𝑁 ∑︁ 𝑘=1 𝑋(𝜔 𝑘 )P(𝜔 𝑘 ) ± 𝑐𝜀 для 𝑐 = max(0, 𝑚 + ) − min(0, 𝑚 − ) и всех 𝜀 > 0. В силу произвольности 𝜀 мы должны определить среднее как сумму E𝑋 = 𝑁 ∑︁ 𝑘=1 𝑋(𝜔 𝑘 )P(𝜔 𝑘 ). Это все еще центр масс. 4.1.4 Случай общего пространства и ограниченных величин В случае, если Ω бесконечно, а 𝑋 ограничена и принимает значения из некоторого диапазона [𝑚 − , 𝑚 + ] , фик- сируем 𝜀 > 0 и найдем такое 𝑁, что ∞ ∑︁ 𝑘=𝑁 +1 P(𝜔 𝑘 ) < 𝜀. Тогда рассмотрим ̃︀ Ω = { ̃︀ 𝜔 1 , . . . , ̃︀ 𝜔 𝑁 +1 } , где ̃︀ 𝜔 𝑖 = 𝜔 𝑖 , 𝑖 ≤ 𝑁, ̃︀ 𝜔 𝑁 +1 = ∞ ⋃︁ 𝑖=𝑁 +1 𝜔 𝑖 Введем ̃︀ 𝑋 1 , ̃︀ 𝑋 2 тем же образом, что и в прошлом подпункте. По тем же причинам в этом случае мы должны определять E𝑋 как сумму ряда E𝑋 = ∞ ∑︁ 𝑘=1 𝑋(𝜔 𝑘 )P(𝜔 𝑘 ). Отметим, что ряд сходится абсолютно, поскольку мажорируется рядом ∞ ∑︁ 𝑘=1 max(−𝑚 − , 𝑚 + )P(𝜔 𝑘 ) = max(−𝑚 − , 𝑚 + ). 4.1.5 Общий случай и неотрицательные величины Рассмотрим величины 𝑋 𝑛 (𝜔) = {︂ 𝑋(𝜔), 𝑋(𝜔) ∈ [0, 𝑛], 𝑛, 𝑋(𝜔) ≥ 𝑛. Тогда E𝑋 𝑛 — монотонно неубывающая последовательность, причем E𝑋 𝑛 ≤ ∞ ∑︁ 𝑘=1 𝑋(𝜔 𝑘 )P(𝜔 𝑘 ). 25 Если ряд ∞ ∑︁ 𝑘=1 𝑋(𝜔 𝑘 )P(𝜔 𝑘 ) сходится, то при любом 𝜀 > 0 и достаточно больших 𝑁 𝑁 ∑︁ 𝑘=1 𝑋(𝜔 𝑘 )P(𝜔 𝑘 ) > 𝜀 Значит при 𝑛 = max(𝑋(𝜔 1 ), . . . , 𝑋(𝜔 𝑁 )) получаем ∞ ∑︁ 𝑘=1 𝑋(𝜔 𝑘 )P(𝜔 𝑘 ) − 𝜀 ≤ E𝑋 𝑛 ≤ ∞ ∑︁ 𝑘=1 𝑋(𝜔 𝑘 )P(𝜔 𝑘 ), поскольку все члены ряда с 1 по 𝑁 вошли в сумму в E𝑋 𝑛 . Значит при всех 𝜀 > 0 ∞ ∑︁ 𝑘=1 𝑋(𝜔 𝑘 )P(𝜔 𝑘 ) − 𝜀 ≤ lim 𝑛→∞ E𝑋 𝑛 ≤ ∞ ∑︁ 𝑘=1 𝑋(𝜔 𝑘 )P(𝜔 𝑘 ), то есть E𝑋 𝑛 стремится к указанной сумме ряда. Но тогда логично определять E𝑋 как ту же сумму, что и прежде 4.1.6 Общий случай В общем случае потребуем, чтобы ряд ∑︀ ∞ 𝑘=1 𝑋(𝜔 𝑘 )P(𝜔 𝑘 ) сходился абсолютно. Тогда естественно положить E𝑋 = E𝑋 + − E𝑋 − , где 𝑋 + (𝜔) = {︂ 𝑋(𝜔), 𝑋(𝜔) > 0, 0, 𝑋(𝜔) ≤ 0, 𝑋 − (𝜔) = {︂ −𝑋(𝜔), 𝑋(𝜔) < 0, 0, 𝑋(𝜔) ≥ 0. Тогда E𝑋 = ∑︁ 𝜔:𝑋(𝜔)>0 𝑋(𝜔)P(𝜔) + ∑︁ 𝜔:𝑋(𝜔)<0 𝑋(𝜔)P(𝜔) = ∑︁ 𝑘 𝑋(𝜔 𝑘 )P(𝜔 𝑘 ), где мы переставляем члены ряда в силу абсолютной сходимости. Если же ряд не сходится абсолютно, то возможны три ситуации: 1. если E𝑋 + = +∞, E𝑋 − < +∞, то логично положить E𝑋 = +∞, 2. если E𝑋 + < +∞, E𝑋 − = +∞, то логично положить E𝑋 = −∞, 3. если E𝑋 + = +∞, E𝑋 − = +∞, то E𝑋 не определено. 4.2 Математическое ожидание случайной величины и функции от случайной величины Для краткости будем писать P(𝑋 = 𝑥) вместо P(𝜔 : 𝑋(𝜔) = 𝑥). Итак, мы приходим к определению: Определение 4.1. Математическим ожиданием E𝑋 называют сумму ряда ∞ ∑︁ 𝑘=1 𝑋(𝜔 𝑘 )P(𝜔 𝑘 ), если ряд сходится абсолютно. Если ряд не сходится абсолютно, то используют приведенную выше схему 1.–3. 26 |