Главная страница
Навигация по странице:

  • Какая из названных систем подмножеств множества {0, 1, 2, 3, 4} является алгеброй

  • Лекции теория вероятностей 2019. Вероятностное пространство


    Скачать 2.67 Mb.
    НазваниеВероятностное пространство
    Дата17.02.2022
    Размер2.67 Mb.
    Формат файлаpdf
    Имя файлаЛекции теория вероятностей 2019.pdf
    ТипДокументы
    #365721
    страница3 из 9
    1   2   3   4   5   6   7   8   9
    Какая из описанных величин является гипергеометрической?
    1. Порядковый номер в списке группы наугад выбранного студента группы
    2. Студент Фадеев тянет билет. Если билет не первый, то билет замешивается обратно и вытягивается заново.
    Число неудачных билетов до вытащенного первого.
    18

    3. Число студентов ФКИ, знающих доказательство теоремы о неявной функции, среди десяти наугад опро- шенных.
    4. Каждый день Вероника Евгеньевна выбирает наугад человека из группы, который будет мыть доску в аудитории. Количество девочек, выбранных за месяц.
    Пример 3.4.
    Покажем, что геометрическое распределение действительно соответствуют указанному физиче- скому описанию.
    Здесь есть некоторое неудобство — нам сейчас сложно ввести вероятностное пространство для бесконечного числа бросаний монеты, потому что возможными исходами будут все бесконечные последовательности из нулей и единиц, которых несчетное число.
    Поэтому мы будем искать именно P
    𝑋
    (𝑘) = P(𝜔 : 𝑋(𝜔) = 𝑘)
    . Для этого нам хватит опыта в виде 𝑘+1 бросаний монеты, то есть схемы Бернулли:
    P((𝑖
    1
    , . . . , 𝑖
    𝑘+1
    ) : 𝑋((𝑖
    1
    , . . . , 𝑖
    𝑘+1
    )) = 𝑘) = P((0, 0, . . . , 0, 1)) = (1 − 𝑝)
    𝑘
    𝑝.
    Здесь мы пользуемся тем, что нам подходит ровно один исход — 𝑘 первых бросков выпадала решка, а последний раз орел.
    Пример 3.5.
    Покажем, что отрицательное биномиальное распределение действительно соответствуют указан- ному физическому описанию.
    Опять же будем искать именно P
    𝑋
    (𝑘) = P(𝜔 : 𝑋(𝜔) = 𝑘)
    . Для этого нам хватит опыта в виде 𝑘 + 𝑟 бросаний монеты, то есть схемы Бернулли:
    P((𝑖
    1
    , . . . , 𝑖
    𝑘+𝑟
    ) : 𝑋((𝑖
    1
    , . . . , 𝑖
    𝑘+1
    )) = 𝑘) = P((𝑖
    1
    , . . . , 𝑖
    𝑘+𝑟−1
    , 1) : 𝑖
    1
    + · · · + 𝑖
    𝑘+𝑟−1
    = 𝑟 − 1) = 𝐶
    𝑟−1
    𝑘+𝑟−1
    𝑝
    𝑟
    (1 − 𝑝)
    𝑘
    Пример 3.6.
    Покажем, что гипергеометрическое распределение действительно соответствуют указанному фи- зическому описанию. Пространство исходов для опыта вытягивания шаров представляет собой
    Ω = {{𝑖
    1
    , . . . , 𝑖
    𝑛
    } : 𝑖
    𝑗
    ∈ {1, . . . , 𝑁 }}, 𝑖
    𝑗
    ̸= 𝑖
    𝑙
    , 𝑗 ̸= 𝑙}.
    Всего в данном множестве 𝐶
    𝑛
    𝑁
    , которые из симметрии имеют равные вероятности. Подходящие под событие
    𝑋 = 𝑘
    исходы это те, в которых из 𝑛 чисел ровно 𝑘 не больше 𝑀. Таких исходов 𝐶
    𝑘
    𝑀
    𝐶
    𝑛−𝑘
    𝑁 −𝑀
    штук. Отсюда получаем искомое соотношение
    P
    𝑋
    (𝑘) = P(𝜔 : 𝑋(𝜔) = 𝑘) =
    𝐶
    𝑘
    𝑀
    𝐶
    𝑛−𝑘
    𝑁 −𝑀
    𝐶
    𝑛
    𝑁
    3.4
    Случайные векторы
    Определение 3.4.
    Случайным вектором называют отображение ⃗
    𝑋 : Ω → R
    𝑑
    Можно рассматривать случайный вектор ⃗
    𝑋
    как набор величин 𝑋
    1
    , . . . , 𝑋
    𝑑
    на одном вероятностном простран- стве.
    Определение 3.5.
    Распределением вероятностей случайного вектора ⃗
    𝑋
    называют отображение P
    𝑋
    : 2
    R
    𝑑

    [0, 1]
    , заданное соотношением
    P

    𝑋
    (𝐵) := P(𝜔 : ⃗
    𝑋(𝜔) ∈ 𝐵) =
    ∑︁
    𝑖: ⃗
    𝑋(𝜔
    𝑖
    )∈𝐵
    𝑝
    𝑖
    ,
    𝐵 ⊆ R
    𝑑
    где 𝑝
    𝑖
    = P(𝜔
    𝑖
    )
    . Здеcь 2
    R
    𝑑
    — множество всех подмножеств R
    𝑑
    Опять же распределение вероятностей в нашем случае полностью задается набором вероятностей
    P

    𝑋
    (⃗
    𝑥
    𝑖
    ) = P(𝜔 : ⃗
    𝑋(𝜔) = ⃗
    𝑥
    𝑖
    )
    для всевозможных ⃗𝑥
    𝑖
    из множества 𝒳 = Im 𝑋 (то есть всевозможных значений, принимаемых случайным вектором). Опять же будем называть функцию
    P

    𝑋
    (⃗
    𝑥) = P(𝜔 : ⃗
    𝑋(𝜔) = ⃗
    𝑥)
    19

    (вероятностной) функцией масс. Функцию масс можно задавать таблицей распределения. Так в случае 𝑑 = 2
    можно задавать удобную двумерную таблицу
    𝑥
    1
    𝑥
    2
    𝑥
    𝑛
    𝑦
    1
    𝑝
    1,1
    𝑝
    1,2
    𝑝
    1,𝑛
    𝑦
    2
    𝑝
    2,1
    𝑝
    2,2
    𝑝
    2,𝑛
    𝑦
    𝑚
    𝑝
    𝑚,1
    𝑝
    𝑚,2
    𝑝
    𝑚,𝑛
    Вопрос 3.2.
    Вектор (𝑋, 𝑌 ) имеет таблицу распределения, приведенную ниже. Найти P(𝑋 = 𝑌 ).
    1 2
    3 0
    0.3 0
    0.1 2
    0.1 0.05 0.15 3 0.05 0.15 0.1
    Пример 3.7.
    Схема Бернулли задает случайный вектор ⃗
    𝑋 = (𝑋
    1
    , . . . , 𝑋
    𝑛
    )
    , описывающий результаты бросков всех монет

    𝑋(𝜔) = ⃗
    𝑋((𝑖
    1
    , . . . , 𝑖
    𝑛
    )) = (𝑖
    1
    , . . . , 𝑖
    𝑛
    ).
    Пример 3.8.
    Представим себе задачу размещения по 𝑛 ячейкам 𝑁 предметов независимо с вероятностями
    𝑝
    1
    , . . . , 𝑝
    𝑛
    , соответственно. Этому эксперименту соответствует вероятностное пространство
    Ω = {(𝑖
    1
    , . . . , 𝑖
    𝑁
    ) : 𝑖
    𝑗
    ∈ {1, . . . , 𝑛}},
    P((𝑖
    1
    , . . . , 𝑖
    𝑁
    )) = 𝑝
    𝑖
    1
    · · · 𝑝
    𝑖
    𝑁
    = 𝑝
    #{𝑗:𝑖
    𝑗
    =1}
    1
    · · · 𝑝
    #{𝑗:𝑖
    𝑗
    =𝑛}
    𝑛
    Рассмотрим случайный вектор
    𝜈
    1
    (𝑖
    1
    , . . . , 𝑖
    𝑁
    ) = #{𝑗 : 𝑖
    𝑗
    = 1}, . . . , 𝜈
    𝑛
    (𝑖
    1
    , . . . , 𝑖
    𝑁
    ) = #{𝑗 : 𝑖
    𝑗
    = 𝑛}.
    Его функция масс задается формулой
    P

    𝜈
    (𝑥
    1
    , . . . , 𝑥
    𝑛
    ) = P((𝑖
    1
    , . . . , 𝑖
    𝑁
    ) : 𝜈
    1
    (𝑖
    1
    , . . . , 𝑖
    𝑁
    ) = 𝑥
    1
    , . . . , 𝜈
    𝑛
    (𝑖
    1
    , . . . , 𝑖
    𝑁
    ) = 𝑥
    𝑛
    ) = 𝑝
    𝑥
    1 1
    · · · 𝑝
    𝑥
    𝑛
    𝑛
    𝑀
    𝑥
    1
    ,...,𝑥
    𝑛
    ,
    где 𝑥
    1
    + · · · + 𝑥
    𝑛
    = 𝑁
    , 𝑀
    𝑥
    1
    ,...,𝑥
    𝑛
    — количество наборов (𝑖
    1
    , . . . , 𝑖
    𝑁
    )
    , в которых ровно 𝑥
    1
    единиц, 𝑥
    2
    двоек,. . . , 𝑥
    𝑛
    чисел 𝑛.
    Найдем 𝑀
    𝑥
    1
    ,...,𝑥
    𝑛
    . Представим себе, что все единицы, двойки и так далее индивидуальны и отличаются друг от друга. Тогда число способов расставить наши числа 𝑁!. Но с точки зрения исходной задачи все возможные перестановки, которые меняют единицы между собой, двойки между собой и так далее, оставляют один исход тем же. Таких перестановок 𝑥
    1
    !
    𝑛
    !
    . Следовательно,
    𝑀
    𝑥
    1
    ,...,𝑥
    𝑛
    =
    𝑁 !
    𝑥
    1
    !
    𝑛
    !
    Значит,
    P

    𝜈
    (𝑥
    1
    , . . . , 𝑥
    𝑛
    ) =
    𝑁 !
    𝑥
    1
    !
    𝑛
    !
    𝑝
    𝑥
    1 1
    · · · 𝑝
    𝑥
    𝑛
    𝑛
    Распределение с такой функцией масс называют полиномиальным распределением 𝑃 𝑜𝑙𝑦𝑛𝑜𝑚𝑖𝑎𝑙(𝑁, 𝑝
    1
    , . . . , 𝑝
    𝑛
    )
    3.5
    Независимые алгебры
    Нам понадобится понятие независимых случайных величин. Для работы с ними нам будет полезно понятие независимых алгебр.
    Напомним определение с первой лекции:
    Определение 3.6.
    Алгеброй подмножеств множества Ω называют такой набор подмножеств 𝒜, что
    1. Ω ∈ 𝒜;
    2. если 𝐴 ∈ 𝒜, то 𝐴 ∈ 𝒜;
    20

    3. если 𝐴 ∈ 𝒜, 𝐵 ∈ 𝒜, то 𝐴 ∪ 𝐵 ∈ 𝒜.
    Как мы говорили в прошлый раз, алгебра также содержит вместе с любыми множествами 𝐴, 𝐵 множества
    𝐴 ∩ 𝐵
    , 𝐴 ∖ 𝐵, 𝐴∆𝐵.
    Вопрос 3.3.

    Какая из названных систем подмножеств множества {0, 1, 2, 3, 4} является алгеброй?
    1. ∅, {0, 1}, {2, 3, 4}, {0, 1, 2}, {3, 4}, {0, 1, 2, 3, 4};
    2. ∅, {0, 1}, {2, 3}, {0, 1, 2, 3}, {4}, {0, 1, 2, 3, 4};
    3. ∅, {0}, {1}, {0, 1}, {2, 3, 4}, {0, 2, 3, 4}, {1, 2, 3, 4}, {0, 1, 2, 3, 4}
    4. {0, 1}, {2, 3, 4}, {0, 1, 2, 3, 4}
    Определение 3.7.
    Алгеброй подмножеств Ω, порожденной разбиением 𝐷
    1
    , . . . , 𝐷
    𝑛
    , называют систему множеств
    {𝐷
    𝑖
    1
    + · · · + 𝐷
    𝑖
    𝑘
    , 1 ≤ 𝑖
    1
    < 𝑖
    2
    < . . . < 𝑖
    𝑘
    ≤ 𝑛, 𝑘 ≥ 0},
    то есть множество всевозможных объединений подмножеств Ω. Алгебру, порожденную 𝐷
    1
    , . . . , 𝐷
    𝑛
    обозначают
    𝜎(𝐷
    1
    , . . . , 𝐷
    𝑛
    )
    . Здесь 𝑛 может быть как конечным, так и бесконечным.
    Проверьте, что это действительно алгебра, пользуясь определением разбиения. Легко видеть, что в ней в точности 2
    𝑛
    событий (каждое из 𝑛 порождающих можно либо выбрать, либо не выбрать).
    Пример 3.9.
    Самой простой такой алгеброй будет 𝜎(Ω) = {∅, Ω}. Чуть более сложной 𝜎(𝐴, 𝐴) = {∅, Ω, 𝐴, 𝐴}.
    Определение 3.8.
    Алгебры 𝒜
    1
    , . . . , 𝒜
    𝑛
    подмножеств Ω называют независимыми, если 𝐴
    1
    , . . . , 𝐴
    𝑛
    независимы для любых 𝐴
    𝑖
    ∈ 𝒜
    𝑖
    Пример 3.10.
    Рассмотрим Ω = {1, 2, 3, 4} с классически заданной вероятностью. Рассмотрим алгебры 𝒜
    1
    =
    {∅, Ω, {1, 2}, {3, 4}}
    , 𝒜
    2
    = {∅, Ω, {1, 3}, {2, 4}}
    . Покажем, что они независимы. Пусть 𝐴
    1
    ∈ 𝒜
    1
    , 𝐴
    2
    ∈ 𝒜
    2
    . Если одно из множеств является Ω или ∅, то оно автоматически независимо с другим. Тогда 𝐴
    1
    = 𝐵
    𝛿
    1 1
    , 𝐴
    2
    = 𝐵
    𝛿
    2 2
    , где
    𝐵
    1
    = {1, 2}
    , 𝐵
    2
    = {1, 3}
    , 𝛿
    1
    , 𝛿
    2
    ∈ {0, 1}
    . События 𝐵
    1
    , 𝐵
    2
    независимы. Но тогда в силу леммы, доказанной в конце прошлой лекции, независимы 𝐵
    𝛿
    1 1
    и 𝐵
    𝛿
    2 2
    . Значит, 𝒜
    1
    и 𝒜
    2
    независимы.
    Теорема 3.1. Пусть алгебра 𝒜
    𝑖
    порождается разбиением 𝐷
    𝑖,1
    , . . . , 𝐷
    𝑖,𝑚
    𝑖
    , 𝑖 ≤ 𝑛. Тогда 𝒜
    1
    , . . . , 𝒜
    𝑛
    независимы тогда и только тогда, когда 𝐷
    1,𝑖
    1
    , . . . , 𝐷
    𝑛,𝑖
    𝑛
    независимы при любых 𝑖
    1
    ≤ 𝑚
    1
    , . . . , 𝑖
    𝑘
    ≤ 𝑚
    𝑘
    Доказательство.
    Прямо из определения независимости алгебр автоматически следует независимость указан- ных событий, поэтому доказывать достаточно только в обратную сторону.
    Пусть 𝐷
    1,𝑖
    1
    , . . . , 𝐷
    𝑛,𝑖
    𝑛
    независимы при любых 𝑖
    1
    ≤ 𝑚
    1
    , . . . , 𝑖
    𝑘
    ≤ 𝑚
    𝑘
    . Покажем, что независимы 𝒜
    1
    , . . . , 𝒜
    𝑛
    Мы должны выбрать произвольные события 𝐵
    1
    ∈ 𝒜
    1
    , . . . , 𝐵
    𝑛
    ∈ 𝒜
    𝑛
    и проверить их независимость. В силу леммы, доказанной в конце прошлого занятия, для этого достаточно проверить, что
    P(𝐵
    𝛿
    1 1
    · · · 𝐵
    𝛿
    𝑛
    𝑛
    ) = P(𝐵
    𝛿
    1 1
    ) · · · P(𝐵
    𝛿
    𝑛
    𝑛
    )
    при любых 𝛿
    1
    , . . . , 𝛿
    𝑛
    ∈ {0, 1}
    . Однако, поскольку 𝐵
    𝛿
    𝑖
    𝑖
    также лежат в 𝒜
    𝑖
    , то достаточно доказать, что
    P(𝐵
    1
    · · · 𝐵
    𝑛
    ) = P(𝐵
    1
    ) · · · P(𝐵
    𝑛
    )
    для всех 𝐵
    𝑖
    ∈ 𝒜
    𝑖
    . При этом из определения 𝒜
    𝑖
    события 𝐵
    𝑖
    представляют собой объединения 𝐷
    𝑖,𝑗
    по каким-то 𝑗.
    Для удобства будем считать, что
    𝐵
    𝑖
    = 𝐷
    𝑖,1
    + · · · + 𝐷
    𝑖,𝑙
    𝑖
    ,
    𝑙
    𝑖
    ≤ 𝑚
    𝑖
    Тогда
    P(𝐵
    1
    · · · 𝐵
    𝑛
    ) =
    𝑙
    1
    ∑︁
    𝑗
    1
    =1
    𝑙
    𝑛
    ∑︁
    𝑗
    𝑛
    =1
    P(𝐷
    1,𝑗
    1
    · · · 𝐷
    𝑛,𝑗
    𝑛
    ) =
    𝑙
    1
    ∑︁
    𝑗
    1
    =1
    · · ·
    𝑙
    𝑛
    ∑︁
    𝑗
    𝑛
    =1
    P(𝐷
    1,𝑗
    1
    ) . . . P(𝐷
    𝑛,𝑗
    𝑛
    ) =
    𝑙
    1
    ∑︁
    𝑗
    1
    =1
    P(𝐷
    1,𝑗
    1
    ) · · ·
    𝑙
    𝑛
    ∑︁
    𝑗
    𝑛
    =1
    P(𝐷
    𝑛,𝑗
    𝑛
    ) = P(𝐵
    1
    ) · · · P(𝐵
    𝑛
    ).
    Теорема доказана. Отметим, что по существу нам не требуется конечность 𝑚
    𝑖
    21

    Определение 3.9.
    Алгеброй, порожденной случайной величиной 𝑋, называют алгебру, порожденную разбие- нием {𝑋 = 𝑥} при всех 𝑥 ∈ 𝒳 . Будем обозначать такую алгебру 𝜎(𝑋).
    Аналогичным образом определяется алгебра 𝜎( ⃗
    𝑋)
    , порожденная вектором ⃗
    𝑋
    Определение 3.10.
    Случайная величина 𝑋 называется измеримой относительно алгебры 𝒜, если
    {𝜔 : 𝑋(𝜔) = 𝑥} ∈ 𝒜
    при всех 𝑥 ∈ 𝒳 . Иначе говоря, порожденная 𝑋 алгебра должна содержаться в 𝒜.
    При этом событие {𝜔 : 𝑋(𝜔) ∈ 𝐵} при любом 𝐵 ⊂ R лежит в 𝒜, поскольку является объединением конечного или счетного числа событий {𝜔 : 𝑋(𝜔) = 𝑥} по 𝑥 ∈ 𝐵.
    Лемма 3.1. Пусть 𝑓 — функция из 𝒳 в R. Тогда величина 𝑓 (𝑋) измерима около 𝜎(𝑋).
    Доказательство.
    Доказательство вытекает из соотношения
    {𝜔 : 𝑓 (𝑋(𝜔)) ∈ 𝐵} = {𝜔 : 𝑋(𝜔) ∈ 𝑓
    −1
    (𝐵)} ∈ 𝜎(𝑋),
    где 𝑓
    −1
    (𝐵) = {𝑥 : 𝑓 (𝑥) ∈ 𝐵}
    — полный прообраз множества.
    3.6
    Независимые случайные величины
    Определение 3.11.
    Величины 𝑋
    1
    , . . . , 𝑋
    𝑛
    , заданные на одном вероятностном пространстве (Ω, ℱ, P), называ- ются независимыми, если для любых множеств 𝐵
    1
    , . . . , 𝐵
    𝑛
    из R
    P(𝜔 : 𝑋
    1
    (𝜔) ∈ 𝐵
    1
    , . . . , 𝑋
    𝑛
    (𝜔) ∈ 𝐵
    𝑛
    ) = P(𝜔 : 𝑋
    1
    (𝜔) ∈ 𝐵
    1
    ) · · · P(𝜔 : 𝑋
    𝑛
    (𝜔) ∈ 𝐵
    𝑛
    )
    Лемма 3.2. Следующие три утверждения равносильны:
    1. Величины 𝑋
    1
    , . . . , 𝑋
    𝑛
    независимы;
    2. Алгебры 𝜎(𝑋
    1
    ), . . . , 𝜎(𝑋
    𝑛
    ) независимы;
    3. Для любого ⃗
    𝑥
    P

    𝑋
    (⃗
    𝑥) = P
    𝑋
    1
    (𝑥
    1
    ) · · · P
    𝑋
    𝑛
    (𝑥
    𝑛
    ).
    Доказательство.
    Первое утверждение равносильно второму напрямую в силу определения независимости слу- чайных величин. Третье равносильно второму в силу теоремы
    3.1
    , поскольку алгебры 𝜎(𝑋
    𝑖
    )
    порождаются раз- биением {𝑋
    𝑖
    = 𝑥}
    , 𝑥 ∈ R.
    Таким образом, проверять независимость можно на основе функций масс.
    Вопрос 3.4.
    Вектор (𝑋, 𝑌 ) имеет таблицу распределения, приведенную ниже. Зависимы ли 𝑋, 𝑌 ? 𝑋 и 𝑌
    2
    ?
    1 2
    0 0.2 0.6 2 0.05 0.15
    Пример 3.11.
    Бернуллиевские величины 𝑋
    1
    , . . . , 𝑋
    𝑛
    являются независимыми, поскольку
    P

    𝑋
    (𝑥
    1
    , . . . , 𝑥
    𝑛
    ) = 𝑝
    𝑥
    1
    +···+𝑥
    𝑛
    1
    (1 − 𝑝
    1
    )
    𝑛−𝑥
    1
    −𝑥
    2
    −···−𝑥
    𝑛
    = 𝑝
    𝑥
    1 1
    (1 − 𝑝
    1
    )
    1−𝑥
    1
    · · · 𝑝
    𝑥
    𝑛
    𝑛
    (1 − 𝑝
    𝑛
    )
    1−𝑥
    𝑛
    = P
    𝑋
    1
    (𝑥
    1
    ) · · · P
    𝑋
    𝑛
    (𝑥
    𝑛
    ).
    Это вполне естественно, ведь если эксперименты независимы, то и связанные с ними величины должны быть независимы.
    Лемма 3.3. Пусть
    Ω = Ω
    1
    × · · · × Ω
    𝑛
    ,
    ℱ = 2
    Ω
    ,
    P((𝜔
    1,𝑖
    1
    , . . . , 𝜔
    𝑛,𝑖
    𝑛
    )) = P
    1
    (𝜔
    1,𝑖
    1
    ) · · · P
    𝑛
    (𝜔
    𝑛,𝑖
    𝑛
    )
    прямое произведение вероятностных пространств. Пусть набор величин 𝑋
    1
    , . . . , 𝑋
    𝑛
    таков, что 𝑋
    𝑖
    (𝜔
    1
    , . . . , 𝜔
    𝑛
    )
    зависит только от 𝜔
    𝑖
    при любом 𝑖. Тогда 𝑋
    1
    , . . . , 𝑋
    𝑛
    независимы.
    22

    Доказательство.
    При каждом 𝑖 ∈ {1, . . . , 𝑛} рассмотрим алгебры 𝒜
    𝑖
    , где 𝒜
    𝑖
    порождена разбиением Ω
    1
    × · · · ×

    𝑖−1
    × {𝜔
    𝑖,𝑗
    } × Ω
    𝑖+1
    × · · · × Ω
    𝑛
    при 𝑗 = 1, . . . , 𝑛
    𝑖
    Поскольку в силу определения прямого произведения указанные разбиения независимы, алгебры 𝒜
    𝑖
    также независимы. Но тогда независимы и 𝜎(𝑋
    𝑖
    )
    , поскольку 𝜎(𝑋
    𝑖
    ) ⊂ 𝒜
    𝑖
    при любом 𝑖 ∈ {1, . . . , 𝑛}.
    Пример 3.12.
    Компоненты полиномиального вектора (𝑋
    1
    , . . . , 𝑋
    𝑛
    ) ∼ 𝑃 𝑜𝑙𝑦𝑛𝑜𝑚𝑖𝑎𝑙(𝑁, 𝑝
    1
    , . . . , 𝑝
    𝑛
    )
    зависимы, если хотя бы два из 𝑝
    1
    , . . . , 𝑝
    𝑛
    положительны. Пусть, скажем, 𝑝
    1
    > 0
    , 𝑝
    2
    > 0
    . Тогда
    P(𝜔 : 𝑋
    1
    (𝜔) = 𝑁 ) = 𝑝
    𝑁
    1
    , P(𝜔 : 𝑋
    2
    (𝜔) = 𝑁 ) = 𝑝
    𝑁
    2
    , P(𝜔 : 𝑋
    1
    (𝜔) = 𝑁, 𝑋
    2
    (𝜔) = 𝑁 ) = 0 ̸= P(𝜔 : 𝑋
    1
    (𝜔) = 𝑁, 𝑋
    2
    (𝜔) = 𝑁 ).
    Лемма 3.4. Пусть величины 𝑋
    1
    , . . . , 𝑋
    𝑛
    независимы, 𝑓
    1
    , . . . , 𝑓
    𝑛
    — некоторые функции. Тогда 𝑓
    1
    (𝑋
    1
    ), . . . , 𝑓
    𝑛
    (𝑋
    𝑛
    )
    независимы.
    Доказательство.
    Доказательство вытекает из того, что 𝜎(𝑓
    𝑖
    (𝑋
    𝑖
    ))
    содержатся в 𝜎(𝑋
    𝑖
    )
    ввиду леммы
    3.1 3.7
    Независимость случайных векторов
    Определение 3.12.
    Векторы ⃗
    𝑋
    1
    , . . . , ⃗
    𝑋
    𝑛
    размерностей 𝑑
    1
    , . . . , 𝑑
    𝑛
    , соответственно, заданные на одном вероят- ностном пространстве (Ω, ℱ, P), называются независимыми, если для любых множеств 𝐵
    1
    ∈ R
    𝑑
    1
    , . . . , 𝐵
    𝑛
    ∈ R
    𝑑
    𝑛
    P(𝜔 : ⃗
    𝑋
    1
    (𝜔) ∈ 𝐵
    1
    , . . . , ⃗
    𝑋
    𝑛
    (𝜔) ∈ 𝐵
    𝑛
    ) = P(𝜔 : ⃗
    𝑋
    1
    (𝜔) ∈ 𝐵
    1
    ) · · · P(𝜔 : ⃗
    𝑋
    𝑛
    (𝜔) ∈ 𝐵
    𝑛
    )
    Лемма 3.5. Следующие три утверждения равносильны:
    1. Векторы ⃗
    𝑋
    1
    , . . . , ⃗
    𝑋
    𝑛
    независимы;
    2. Алгебры 𝜎( ⃗
    𝑋
    1
    ), . . . , 𝜎( ⃗
    𝑋
    𝑛
    ) независимы;
    3. Для любых ⃗
    𝑥 = (⃗
    𝑥
    1
    , . . . , ⃗
    𝑥
    𝑛
    )
    P

    𝑋
    (⃗
    𝑥) = P

    𝑋
    1
    (⃗
    𝑥
    1
    ) · · · P

    𝑋
    𝑛
    (⃗
    𝑥
    𝑛
    ).
    Доказательство совершенно аналогично лемме
    3.2
    Пример 3.13.
    Пусть 𝑋
    1
    , 𝑋
    2
    — схема Бернулли. Тогда векторы (𝑋
    1
    , 1−𝑋
    1
    )
    и (𝑋
    2
    , 1−𝑋
    2
    )
    независимы, поскольку
    P((𝑋
    1
    , 1 − 𝑋
    1
    ) = (𝑖, 1 − 𝑖), (𝑋
    2
    , 1 − 𝑋
    2
    ) = (𝑗, 1 − 𝑗)) = P(𝑋
    1
    = 𝑖)P(𝑋
    2
    = 𝑗) =
    P((𝑋
    1
    , 1 − 𝑋
    1
    ) = (𝑖, 1 − 𝑖))P((𝑋
    2
    , 1 − 𝑋
    2
    ) = (𝑗, 1 − 𝑗)).
    Отметим также аналог леммы
    3.4
    для векторов.
    Лемма 3.6. Пусть величины ⃗
    𝑋
    1
    , . . . , ⃗
    𝑋
    𝑛
    независимы, 𝑓
    1
    , . . . , 𝑓
    𝑛
    — некоторые функции. Тогда 𝑓
    1
    ( ⃗
    𝑋
    1
    ), . . . , 𝑓
    𝑛
    ( ⃗
    𝑋
    𝑛
    )
    независимы.
    3.8
    Ответы на вопросы
    1. Первая из них равномерная, вторая геометрическая, четвертая биномиальная, а вот третья — гипергео- метрическая.
    2. Чтобы найти P(𝑋 = 𝑌 ), сложим P(𝑋 = 𝑌 = 2) и P(𝑋 = 𝑌 = 3). Итого P(𝑋 = 𝑌 ) = 0.05 + 0.1 = 0.15.
    3. ∅, {0}, {1}, {0, 1}, {2, 3, 4}, {0, 2, 3, 4}, {1, 2, 3, 4}, {0, 1, 2, 3, 4}. Первая не содержит {2} — разности {0, 1, 2} и
    {0, 1}
    , вторая {4} — дополнения до {0, 1, 2, 3, }, четвертая — самого Ω.
    4. Прямо по определению 𝑋 и 𝑌 независимы. У 𝑋 и 𝑌
    2
    таблица распределения та же самая. Отличие лишь в подписи второй строки, но это не влияет на независимость.
    23

    4
    Математическое ожидание в дискретном случае
    4.1
    Определение математического ожидания
    Пусть (Ω, 2
    Ω
    , P) — вероятностное пространство, 𝑋 — случайная величина на нем. Мы хотим определить сред- нее значение случайной величины 𝑋, заданной на этом пространстве. Опять же, я сделаю это последовательно,
    демонстрируя, что у нас нет альтернативы данному определению. При желании вы можете пропустить часть
    4.1 и сразу перейти к 4.2.
    4.1.1
    Классический случай
    Если на Ω вероятность задана классическим образом, то логично определять среднее значение соотношением
    E𝑋 =
    1
    𝑁
    𝑁
    ∑︁
    𝑘=1
    𝑋(𝜔
    𝑘
    ) =
    𝑁
    ∑︁
    𝑘=1
    𝑋(𝜔
    𝑘
    )P(𝜔
    𝑘
    ).
    Физически это центр масс системы точек 𝑋(𝜔
    1
    ), . . . , 𝑋(𝜔
    𝑁
    )
    с равными массами.
    4.1.2
    Случай рациональных вероятностей
    Если вероятности исходов Ω рациональны, то аналогично тому, как это было сделано на второй лекции,
    мы можем ввести новое пространство
    ̃︀

    с классически заданной вероятностью
    ̃︀
    𝑃
    , где каждый исход 𝜔
    𝑘
    будет состоять из нескольких частей
    ̃︀
    𝜔
    𝑘,1
    ,. . . ,
    ̃︀
    𝜔
    𝑘,𝑛
    𝑘
    . Рассмотрим случайную величину
    ̃︀
    𝑋
    на
    ̃︀

    , заданную соотношением
    ̃︀
    𝑋(
    ̃︀
    𝜔
    𝑘,𝑖
    ) = 𝑋(𝜔
    𝑘
    )
    при всех 𝑘, 𝑖. Величина
    ̃︀
    𝑋
    описывает ту же самую физическую характеристику, что и 𝑋, просто заданную на другом вероятностном пространстве. Поскольку мы решили, что
    E ̃︀
    𝑋 =
    𝑁
    ∑︁
    𝑘=1
    𝑛
    𝑘
    ∑︁
    𝑖=1
    ̃︀
    𝑋(
    ̃︀
    𝜔
    𝑘,𝑖
    ) ̃︀
    P(
    ̃︀
    𝜔
    𝑘,𝑖
    ) =
    𝑁
    ∑︁
    𝑘=1
    𝑋(𝜔
    𝑘
    )
    𝑛
    𝑘
    ∑︁
    𝑖=1
    ̃︀
    P(
    ̃︀
    𝜔
    𝑘,𝑖
    ) =
    𝑁
    ∑︁
    𝑘=1
    𝑋(𝜔
    𝑘
    )P(𝜔
    𝑘
    ),
    то и E𝑋 естественно определять тем же соотношением. Физически это все еще центр масс системы точек
    𝑋(𝜔
    1
    )
    ,. . . ,X(𝜔
    𝑁
    )
    с разными массами.
    4.1.3
    Случай общего конечного пространства
    Если вероятности не являются рациональными, то фиксируем 𝜀 > 0 и рассмотрим пространство
    ̃︀

    , состоящее из исходов
    ̃︀
    𝜔
    𝑖
    , 𝑖 ≤ 𝑁 + 1, причем
    ̃︀
    P(
    ̃︀
    𝜔
    𝑖
    ) ≤ P(𝜔
    𝑖
    ) ≤ ̃︀
    P(
    ̃︀
    𝜔
    𝑖
    ) +
    𝜀
    𝑁
    ,
    ̃︀
    P(
    ̃︀
    𝜔
    𝑖
    ) ∈ Q, 𝑖 ≤ 𝑁,
    ̃︀
    P(
    ̃︀
    𝜔
    𝑁 +1
    ) < 𝜀
    Пусть min 𝑋(𝜔
    𝑖
    ) = 𝑚

    , max 𝑋(𝜔
    𝑖
    ) = 𝑚
    +
    Рассмотрим две случайных величины
    ̃︀
    𝑋
    1
    (
    ̃︀
    𝜔
    𝑖
    ) = ̃︀
    𝑋
    2
    (
    ̃︀
    𝜔
    𝑖
    ) = 𝑋
    1
    (𝜔
    𝑖
    ), 𝑖 ≤ 𝑁,
    ̃︀
    𝑋
    1
    (
    ̃︀
    𝜔
    𝑁 +1
    ) = 𝑚

    ,
    ̃︀
    𝑋
    2
    (
    ̃︀
    𝜔
    𝑁 +1
    ) = 𝑚
    +
    Можно представить себе, что мы отрезали по кусочку от каждого исхода 𝜔
    𝑖
    , чтобы сделать их рациональными,
    а затем оставшиеся "обрезки"собрали в новый исход. При этом новые величины на обрезанных кусочках мы положили теми же, что и раньше, а на обрезках первую величину сделали минимальным из того, чем была 𝑋,
    а вторую — максимальным. Тогда естественно считать, что величина
    E ̃︀
    𝑋
    1
    =
    𝑁
    ∑︁
    𝑘=1
    ̃︀
    𝑋
    1
    (
    ̃︀
    𝜔
    𝑘
    )P(
    ̃︀
    𝜔
    1
    ) + 𝑚

    P(
    ̃︀
    𝜔
    𝑁 +1
    ) =
    𝑁
    ∑︁
    𝑘=1
    𝑋(𝜔
    𝑘
    ) ̃︀
    P(
    ̃︀
    𝜔
    1
    ) + 𝑚

    P(
    ̃︀
    𝜔
    𝑁 +1
    )
    24
    меньше, чем должно быть E𝑋, а
    E ̃︀
    𝑋
    2
    =
    𝑁
    ∑︁
    𝑘=1
    ̃︀
    𝑋
    1
    (
    ̃︀
    𝜔
    𝑘
    )P(
    ̃︀
    𝜔
    1
    ) + 𝑚
    +
    P(
    ̃︀
    𝜔
    𝑁 +1
    ) =
    𝑁
    ∑︁
    𝑘=1
    𝑋(𝜔
    𝑘
    ) ̃︀
    P(
    ̃︀
    𝜔
    𝑘
    ) + 𝑚
    +
    P(
    ̃︀
    𝜔
    𝑁 +1
    )
    больше. При этом
    E ̃︀
    𝑋
    1

    𝑁
    ∑︁
    𝑘=1
    𝑋(𝜔
    𝑘
    )P(𝜔
    𝑘
    ) + (max(0, 𝑚
    +
    ) − min(0, 𝑚

    ))𝜀, E ̃︀
    𝑋
    2

    𝑁
    ∑︁
    𝑘=1
    𝑋(𝜔
    𝑘
    )P(𝜔
    𝑘
    ) − (max(0, 𝑚
    +
    ) − min(0, 𝑚

    ))𝜀.
    Следовательно, E𝑋 должно быть в диапазоне
    𝑁
    ∑︁
    𝑘=1
    𝑋(𝜔
    𝑘
    )P(𝜔
    𝑘
    ) ± 𝑐𝜀
    для 𝑐 = max(0, 𝑚
    +
    ) − min(0, 𝑚

    )
    и всех 𝜀 > 0. В силу произвольности 𝜀 мы должны определить среднее как сумму
    E𝑋 =
    𝑁
    ∑︁
    𝑘=1
    𝑋(𝜔
    𝑘
    )P(𝜔
    𝑘
    ).
    Это все еще центр масс.
    4.1.4
    Случай общего пространства и ограниченных величин
    В случае, если Ω бесконечно, а 𝑋 ограничена и принимает значения из некоторого диапазона [𝑚

    , 𝑚
    +
    ]
    , фик- сируем 𝜀 > 0 и найдем такое 𝑁, что

    ∑︁
    𝑘=𝑁 +1
    P(𝜔
    𝑘
    ) < 𝜀.
    Тогда рассмотрим
    ̃︀
    Ω = {
    ̃︀
    𝜔
    1
    , . . . ,
    ̃︀
    𝜔
    𝑁 +1
    }
    , где
    ̃︀
    𝜔
    𝑖
    = 𝜔
    𝑖
    , 𝑖 ≤ 𝑁,
    ̃︀
    𝜔
    𝑁 +1
    =

    ⋃︁
    𝑖=𝑁 +1
    𝜔
    𝑖
    Введем
    ̃︀
    𝑋
    1
    ,
    ̃︀
    𝑋
    2
    тем же образом, что и в прошлом подпункте. По тем же причинам в этом случае мы должны определять E𝑋 как сумму ряда
    E𝑋 =

    ∑︁
    𝑘=1
    𝑋(𝜔
    𝑘
    )P(𝜔
    𝑘
    ).
    Отметим, что ряд сходится абсолютно, поскольку мажорируется рядом

    ∑︁
    𝑘=1
    max(−𝑚

    , 𝑚
    +
    )P(𝜔
    𝑘
    ) = max(−𝑚

    , 𝑚
    +
    ).
    4.1.5
    Общий случай и неотрицательные величины
    Рассмотрим величины
    𝑋
    𝑛
    (𝜔) =
    {︂
    𝑋(𝜔),
    𝑋(𝜔) ∈ [0, 𝑛],
    𝑛,
    𝑋(𝜔) ≥ 𝑛.
    Тогда E𝑋
    𝑛
    — монотонно неубывающая последовательность, причем
    E𝑋
    𝑛


    ∑︁
    𝑘=1
    𝑋(𝜔
    𝑘
    )P(𝜔
    𝑘
    ).
    25

    Если ряд

    ∑︁
    𝑘=1
    𝑋(𝜔
    𝑘
    )P(𝜔
    𝑘
    )
    сходится, то при любом 𝜀 > 0 и достаточно больших 𝑁
    𝑁
    ∑︁
    𝑘=1
    𝑋(𝜔
    𝑘
    )P(𝜔
    𝑘
    ) > 𝜀
    Значит при 𝑛 = max(𝑋(𝜔
    1
    ), . . . , 𝑋(𝜔
    𝑁
    ))
    получаем

    ∑︁
    𝑘=1
    𝑋(𝜔
    𝑘
    )P(𝜔
    𝑘
    ) − 𝜀 ≤ E𝑋
    𝑛


    ∑︁
    𝑘=1
    𝑋(𝜔
    𝑘
    )P(𝜔
    𝑘
    ),
    поскольку все члены ряда с 1 по 𝑁 вошли в сумму в E𝑋
    𝑛
    . Значит при всех 𝜀 > 0

    ∑︁
    𝑘=1
    𝑋(𝜔
    𝑘
    )P(𝜔
    𝑘
    ) − 𝜀 ≤ lim
    𝑛→∞
    E𝑋
    𝑛


    ∑︁
    𝑘=1
    𝑋(𝜔
    𝑘
    )P(𝜔
    𝑘
    ),
    то есть E𝑋
    𝑛
    стремится к указанной сумме ряда. Но тогда логично определять E𝑋 как ту же сумму, что и прежде
    4.1.6
    Общий случай
    В общем случае потребуем, чтобы ряд ∑︀

    𝑘=1
    𝑋(𝜔
    𝑘
    )P(𝜔
    𝑘
    )
    сходился абсолютно. Тогда естественно положить
    E𝑋 = E𝑋
    +
    − E𝑋

    ,
    где
    𝑋
    +
    (𝜔) =
    {︂
    𝑋(𝜔),
    𝑋(𝜔) > 0,
    0,
    𝑋(𝜔) ≤ 0,
    𝑋

    (𝜔) =
    {︂
    −𝑋(𝜔), 𝑋(𝜔) < 0,
    0,
    𝑋(𝜔) ≥ 0.
    Тогда
    E𝑋 =
    ∑︁
    𝜔:𝑋(𝜔)>0
    𝑋(𝜔)P(𝜔) +
    ∑︁
    𝜔:𝑋(𝜔)<0
    𝑋(𝜔)P(𝜔) =
    ∑︁
    𝑘
    𝑋(𝜔
    𝑘
    )P(𝜔
    𝑘
    ),
    где мы переставляем члены ряда в силу абсолютной сходимости.
    Если же ряд не сходится абсолютно, то возможны три ситуации:
    1. если E𝑋
    +
    = +∞, E𝑋

    < +∞,
    то логично положить E𝑋 = +∞,
    2. если E𝑋
    +
    < +∞, E𝑋

    = +∞,
    то логично положить E𝑋 = −∞,
    3. если E𝑋
    +
    = +∞, E𝑋

    = +∞,
    то E𝑋 не определено.
    4.2
    Математическое ожидание случайной величины и функции от случайной величины
    Для краткости будем писать P(𝑋 = 𝑥) вместо P(𝜔 : 𝑋(𝜔) = 𝑥).
    Итак, мы приходим к определению:
    Определение 4.1.
    Математическим ожиданием E𝑋 называют сумму ряда

    ∑︁
    𝑘=1
    𝑋(𝜔
    𝑘
    )P(𝜔
    𝑘
    ),
    если ряд сходится абсолютно.
    Если ряд не сходится абсолютно, то используют приведенную выше схему 1.–3.
    26

    Вопрос 4.1.

    1   2   3   4   5   6   7   8   9


    написать администратору сайта