Лекция 5 Дискретные случайные величины
Скачать 0.51 Mb.
|
= = M X 2 − 2(M (X)) 2 + (M (X) 2 = M X 2 − (M (X)) 2 Задача 5.11. В условиях задачи 5.1 найдите дисперсию δ. Решение. Для того, чтобы вычислить дисперсию дискретной случай- ной величины δ с помощью формулы 5.11, дополним таблицу е¨ е закона распределения строчкой квадратов е¨ е значений: δ 2 4 25 64 121 δ 2 5 8 11 p 0,46 0,29 0,11 0,14 Вычислим M (δ 2 ) = 4 · 0, 46 + 25 · 0, 29 + 64 · 0, 11 + 121 · 0, 14 ⇒ M (δ 2 ) = 23, 07. Далее, возвед¨ ем в квадрат найденное при решении задачи 5.9 значение математического ожидания δ: (M (δ)) 2 = (4, 79) 2 ⇒ (M (δ)) 2 = 22, 94. Вычитая его из M (δ 2 ): 23, 07 − 22, 94 = 0, 13, получаем значение дисперсии δ: D(δ) = 0, 13. 20 Задача 5.12. В условиях задачи 5.9 найдите дисперсию P . Решение. Аналогично решению задачи 5.11 дополним таблицу значе- ний закона распределения случайной величины P строкой из квадратов е¨ е значений: P 2 0 1 4 9 P 0 1 2 3 p 1 14 3 7 3 7 1 14 Вычислим M (P 2 ) = 0 · 1 14 + 1 · 3 7 + 4 · 3 7 + 9 · 1 14 ⇒ M (P 2 ) = 2 11 14 Зная из решения задачи 5.9 значение M (P ) = 1, 5, найд¨ ем его квадрат: (M (P )) 2 = (1, 5) 2 ⇒ (M (P )) 2 = 2, 25. Вычитая найденное значение из M (P 2 ): 2 11 14 − 2 1 4 = 15 28 , получаем значение дисперсии P : D(P ) ≈ 0, 54. Задача 5.13. Известно, что некоторая случайная величина может принимать значения 0, 3 и 5. Известно, что математическое ожидание равно 2, а дисперсия − 3. Найдите закон распределения случайной вели- чины. Решение. Предположим, что события, соответствующие указанным значениям, наступают соответственно с вероятностями p 1 , p 2 и p 3 Тогда таблица закона распределения данной случайной величины вместе с дополнительной строкой квадратов е¨ е значений будет иметь следующий вид: 0 9 25 P 0 3 5 p p 1 p 2 p 3 Согласно условию 5.1, для вероятностей имеет место равенство: p 1 + p 2 + p 3 = 1. Из условия задачи и формулы 5.5 для математического ожидания данной случайной величины можно составить следующее равенство: 0 · p 1 + 3 · p 2 + 5 · p 3 = 2. Зная дисперсию случайной величины с помощью формулы 5.11 можно по- лучить ещ¨ е одно равенство: 21 0 · p 1 + 9 · p 2 + 25 · p 3 − 2 2 = 3. Приведя подобные, составим следующую систему уравнений: p 1 + p 2 + p 3 = 1 + 3p 2 + 5p 3 = 2 + 9p 2 + 25p 3 = 7. Решив систему, находим p 1 = 0, 4; p 2 = 0, 5; p 3 = 0, 1. Следовательно, закон распределения данной случайной величины имеет такой вид: P 0 3 5 p 0, 4 0, 5 0, 1 5.4.5. Свойства дисперсии Свойство 5.9. Дисперсия постоянной величины C равна нулю: D(C) = 0. Свойство 5.10. Постоянный множитель можно выносить за знак дисперсии, предаварительно возведя его в квадрат: D(CX) = C 2 D(X). Свойство 5.11. Дисперсия суммы двух независимых случайных вели- чин равна сумме дисперсий этих величин: D(X + Y ) = D(X) + D(Y ). Свойство 5.12. Дисперсия разности двух независимых случайных ве- личин равна сумме дисперсий этих величин: D(X − Y ) = D(X) + D(Y ). Замечание 5.5. Заметим, что свойство 5.11имеет место для любого конечного числа взаимно независимых случайных величин: D(X 1 + X 2 + · · · + X n ) = D(X 1 ) + D(X 2 ) + · · · + D(X n ). (5.12) 5.4.6. Среднее квадратическое отклонение Так как дисперсия определяет квадрат отклонения случайной величины от е¨ е среднего значения, то кроме не¨ е вводят ещ¨ е одну характеристику. Определение 5.8. Средним квадратическим отклонением случайной величины X называется квадратный корень из е¨ е дисперсии: σ(X) = p D(X). (5.13) 22 Задача 5.14. В условиях задачи 5.1 найдите среднее квадратическое отклонение δ. Решение. Так как при решении задачи 5.11 было найдено значение дисперсии D(δ) = 0, 13, то, согласно формуле 5.13, имеем σ(δ) = p 0, 13 ⇒ σ(δ) ≈ 0, 36. Предположим, что известны средние квадратические отклонения двух независмых случайных величин. О том, как выглядит среднее квадратиче- ское отклонение их суммы, говорит следующая Теорема 5.3. Среднее квадратическое отклонение суммы двух незави- симых случайных величин равно квадратному корню из суммы квадратов среднеквадратических отклонений этих величин: σ(X + Y ) = p σ 2 (X) + σ 2 (Y ). Задача 5.15. Две случайные величины X и Y заданы своими законами распределения: X 1 2 3 p 0, 5 0, 3 0, 2 Y −1 0 1 2 p 0, 2 0, 3 0, 4 0, 1 1. Вычислите M (X − 2Y ) и D(X − 2Y ). 2. Вычислите M (2X + 3Y ) и D(2X + 3Y ). Решение. вычислим для каждой из случайных величин математиче- ское ожидание и дисперсию. Согласно формуле 5.5 M (X) = 1 · 0, 5 + 2 · 0, 3 + 3 · 0, 2 ⇒ M (X) = 1, 7; M (Y ) = −1 · 0, 2 + 0 · 0, 3 + 1 · 0, 4 + 2 · 0, 1 ⇒ M (Y ) = 0, 4. Для того, чтобы вычислить дисперсии, надстроим в каждой из таблиц строки квадратов значений величин: X 2 1 4 9 X 1 2 3 p 0, 5 0, 3 0, 2 Y 2 1 0 1 4 Y −1 0 1 2 p 0, 2 0, 3 0, 4 0, 1 Далее, вычислим M (X 2 ) и M (Y 2 ). M (X 2 ) = 1 · 0, 5 + 4 · 0, 3 + 9 · 0, 2 ⇒ M (X 2 ) = 3, 5; M (Y 2 ) = 1 · 0, 2 + 0 · 0, 3 + 1 · 0, 4 + 4 · 0, 1 ⇒ M (Y 2 ) = 1. С помощью 5.11 найд¨ ем дисперсии заданных случайных величин: D(X) = 3, 5 − (1, 7) 2 ⇒ D(X) = 0, 61; D(Y ) = 1 − (0, 4) 2 ⇒ D(Y ) = 0, 84. Используя свойства математического ожидания случайных величин (см. 23 5.6 и 5.7), определим математические ожидания заданных линейных ком- бинаций случайных величин: M (X − 2Y ) = M (X) − 2M (Y ) ⇒ ⇒ M (X − 2Y ) = 1, 7 − 2 · 0, 4 ⇒ M (X − 2Y ) = 0, 9; M (2X + 3Y ) = 2M (X) + 3M (Y ) ⇒ ⇒ M (2X + 3Y ) = 2 · 1, 7 + 3 · 0, 4 ⇒ M (2X + 3Y ) = 4, 6. Так как X и Y − независимые случайные величины, то с помощью свойств 5.10 и 5.11 вычислим дисперсии указанных линейных комбинаций случайных величин: D(X − 2Y ) = D(X) − 4M (Y ) ⇒ ⇒ D(X − 2Y ) = 0, 61 + 4 · 0, 84 ⇒ D(X − 2Y ) = 3, 97; D(2X + 3Y ) = 4D(X) + 9D(Y ) ⇒ ⇒ D(2X + 3Y ) = 4 · 0, 61 + 9 · 0, 84 ⇒ D(2X + 3Y ) = 10. В итоге, имеем M (X − 2Y ) = 0, 9; D(X − 2Y ) = 3, 97; M (2X + 3Y ) = 4, 6; D(2X + 3Y ) = 10. Задача 5.16. Подбрасывают два игральных кубика. Случайная вели- чина X − сумма выпавших очков. Найдите закон распределения, мате- матическое ожидание и дисперсию. Решение. Каждый кубик имеет 6 одинаковых граней. Так как каж- дый кубик подбрасывается независимо от другого, то согласно принципу произведения, общее число вариантов выпадения двух цифр на кубиках равно n = 6 · 6, то есть, n = 36. При этом сумма выпавших очков может принимать все целочисленные значения от двух (если выпадет вариант 1-1), до 12 (если выпадет вариант 6-6). 1. X = 2 A 2 =на первой кости выпало 1 очко и B 2 =на второй кости вы- пало 1 очко. P (X = 2) = P (A 2 )P (B 2 ) ⇒ P (X = 2) = 1 6 · 1 6 ⇒ P (X = 2) = 1 36 2. X = 3 A 31 =на первой кости выпало 1 очко и B 31 =на второй кости выпало 2 очка или A 32 =на первой кости выпало 2 очка и B 22 =на второй кости выпало 1 очко. P (X = 3) = P (A 31 )P (B 31 ) + P (A 32 )P (B 32 ) ⇒ ⇒ P (X = 3) = 1 6 · 1 6 + 1 6 · 1 6 ⇒ P (X = 3) = 2 36 3. X = 4 A 41 =на первой кости выпало 1 очко и B 41 =на второй кости выпало 3 очка или A 42 =на первой кости выпало 2 очка и B 42 =на второй кости выпало 2 очка или A 43 =на первой кости 24 выпало 3 очка и B 43 =на второй кости выпало 1 очко. P (X = 3) = P (A 31 )P (B 31 ) + P (A 32 )P (B 32 ) ⇒ ⇒ P (X = 3) = 1 6 · 1 6 + 1 6 · 1 6 ⇒ P (X = 3) = 2 36 Продолжив разбор вариантов выпадения очков для каждого значения суммы аналогичным образом, получим таблицу закона распределения для изучаемой случайной величины X: X 2 3 4 5 6 7 8 9 10 11 12 p 1 36 2 36 3 36 4 36 5 36 6 36 5 36 4 36 3 36 2 36 1 36 Складывая вероятности из второй строки: 1 36 + 2 36 + 3 36 + 4 36 + 5 36 + 6 36 + 5 36 + 4 36 + 3 36 + 2 36 + 1 36 = 1, убеждаемся в правильности составления закона распределения. Умножая скалярно вектор значений X на вектор вероятностей 2 · 1 36 + 3 · 2 36 + 4 · 3 36 + 5 · 4 36 + 6 · 5 36 + 7 · 6 36 + 8 · 5 36 + +9 · 4 36 + 10 · 3 36 + 11 · 2 36 + 12 · 1 36 = 252 36 = 7, находим математическое ожидание M (X) = 7. Далее, дополняя таблицу строкой квадратов значений случайной вели- чины X 2 4 9 16 25 36 49 64 81 100 121 144 X 2 3 4 5 6 7 8 9 10 11 12 p 1 36 2 36 3 36 4 36 5 36 6 36 5 36 4 36 3 36 2 36 1 36 , вычисляем математическое ожидание квадрата случайной величины: 4 · 1 36 + 9 · 2 36 + 16 · 3 36 + 25 · 4 36 + 36 · 5 36 + 49 · 6 36 + 64 · 5 36 + +81 · 4 36 + 100 · 3 36 + 121 · 2 36 + 144 · 1 36 = 1974 36 ≈ 54, 83. После применения формулы 5.11 находим дисперсию D(X) = 54, 83 − 49 ⇒ D(X) ≈ 5, 83. Замечание 5.6. Следует заметить, что эту задачу можно было бы ре- шить со значительно меньшими усилиями, если рассматривать искомую случайную величину X как сумму двух случайных величин X 1 и X 2 , каж- дая из которых представляет число выпавших очков на соответствующем кубике. 25 Так как кубики одинаковы, то X 1 = X 2 Поэтому, M (X 1 ) = M (X 2 ) и D(X 1 ) = D(X 2 ). Так как вероятность выпадения одной грани вверх величина постоянная и равная 1 6 , то M (X 1 ) = M (X 2 ) = 1 · 1 6 + 2 · 1 6 + 3 · 1 6 + 4 · 1 6 + 5 · 1 6 + 6 · 1 6 ⇒ ⇒ M (X 1 ) = M (X 2 ) = 3, 5 Аналогично, вычисляем M (X 2 1 ) = M (X 2 2 ) 1 · 1 6 + 4 · 1 6 + 9 · 1 6 + 16 · 1 6 + 25 · 1 6 + 36 · 1 6 ⇒ ⇒ M (X 2 1 ) = M (X 2 2 ) = 91 6 ≈ 15, 16. Следовательно, D(X 1 ) = D(X 2 ) = 15, 16 − (3, 5) 2 ⇒ ⇒ D(X 1 ) = D(X 2 ) ≈ 2, 91. Согласно свойствам математического ожидания и дисперсии (см. 5.7 и 5.11) M (X 1 + X 2 ) = M (X 1 ) + M (X 2 ); D(X 1 + X 2 ) = D(X 1 ) + D(X 2 ). Поэтому, M (X) = 2M (X 1 ), D(X) = 2D(X 1 ) ⇒ M (X) = 7; D(X) = 5, 82 . § 5.5. Одинаково распредел¨ енные независимые случайные величины Предположим, что две независмые случайные величины X 1 и X 2 имеют одинаковые распределения. Очевидно, что они имеют и одинаковые число- вые характеристики. Рассмотрим среднее арифметическое этих величин. Обозначим среднее арифметическое этих величин ¯ X = X 1 + X 2 2 Нижеследующие свойства определяют связь между числовыми характе- ристиками среднего арифметического и соответствующими характеристи- ками каждой из величин. Пусть M (X 1 ) = M (X 2 ) = a, D(X 1 ) = D(X 2 ) = D, σ(X 1 ) = σ(X 2 ) = σ. Свойство 5.13. Математическое ожидание среднего арифметическо- го двух одинаково распредел¨ енных независимых случайных величин равно математическому ожиданию каждой из этих величин: M ( ¯ X) = a. Свойство 5.14. Дисперсия среднего арифметического двух одинаково распредел¨ енных независимых случайных величин в два раза меньше ди- 26 сперсии каждой из них: D( ¯ X) = D 2 Свойство 5.15. Среднее квадратическое отклонение среднего арифме- тического двух одинаково распредел¨ енных независимых случайных вели- чин в √ 2 раз меньше среднего квадратического отклонения каждой из них: σ( ¯ X) = σ √ 2 Замечание 5.7. Из свойства 5.15 следует, что среднее арифметическое двух независимых случайных величин имеет меньшее рассеяние, чем каж- дая из них. Очевидно можно предположить, что для большого количества взаимно независимых случайных величин их среднее арифметическое бу- дет иметь значительно меньшее рассеяние, чем каждая из них. Этим и объясняется, что на практике при проведении большого числа измерений некоторой характеристики выбирают среднее арифметическое этих изме- рений. Среди большого мира распределений вероятностей всевозможных дис- кретных случайных величин наибольший интерес на практике представля- ют рассмотренные ниже распределения. § 5.6. Примеры распределений дискретных случайных величин 5.6.1. Биномиальное распределение вероятностей Рассмотрим решение следующей задачи. Задача 5.17. В городе 3 коммерческих банка. У каждого риск банк- ротства в течение года составляет 20%. Составьте ряд распределения числа банков, которые могут обанкротиться в течение следующего года, а также найдите математическое ожидание и дисперсию полученного распределения. Решение. Пусть случайная величина Y − число банков, обанкротиться в течение следующего года. По условию задачи Y может принимать зна- чения из множества {0, 1, 2, 3}. Поскольку вероятность банкротства для каждого банка p = 0, 2 по- стоянна, то вероятность того, что каждый банк не обанкротится, q = 0, 8 (q = 1 − 0, 2), также постоянна, следовательно, вычисление вероятностей банкротства для каждого банка определяется одной и той же формулой Бернулли (при n = 3) P n (k) = p k q n−k 27 Вычислим эти вероятности. 1. P (Y = 0) = C 0 3 (0, 2) 0 · (0, 8) 3 ⇒ P (Y = 0) = 0, 512. 2. P (Y = 1) = C 1 3 (0, 2) 1 · (0, 8) 2 ⇒ P (Y = 1) = 0, 384. 3. P (Y = 2) = C 2 3 (0, 2) 2 · (0, 8) 1 ⇒ P (Y = 0) = 0, 096. 4. P (Y = 3) = C 3 3 (0, 2) 3 · (0, 8) 0 ⇒ P (Y = 0) = 0, 008. Так как сумма найденных вероятностей 0, 512 + 0, 384 + 0, 096 + 0, 008 = 1, то закон распределения вероятностей для Y имеет следующий вид: Y 0 1 2 3 p 0, 512 0, 384 0, 096 0, 008 Далее, согласно 5.5, вычислим математическое ожидание Y : M (Y ) = 0 · 0, 512 + 1 · 0, 384 + 2 · 0, 096 + 3 · 0, 008 ⇒ M (Y ) = 0, 6. Построим над таблицей строку квадратов значений Y и определим M (Y 2 ): Y 2 0 1 4 9 Y 0 1 2 3 p 0, 512 0, 384 0, 096 0, 008 M (Y 2 ) = 0 · 0, 512 + 1 · 0, 384 + 4 · 0, 096 + 9 · 0, 008 ⇒ M (Y 2 ) = 0, 84. Вычитая из полученного результата квадрат математического ожида- ния, находим: D(Y ) = 0, 84 − (0, 6) 2 ⇒ D(Y ) = 0, 48. Анализируя решение этой задачи можно сделать несколько выводов: 1. Математическое ожидание Y и е¨ е дисперсии были вычислены благодаря построению закона распределения вероятностей. 2. Закон распределения вероятностей был построен потому, что случайная величина Y в условии задачи принимала всего три четыре значения. Возникает вполне естественный вопрос: как искать математическое ожи- дание и дисперсию, описывающие основные характеристики случайной ве- личины, если случайная величина принимает гораздо большее число зна- чений? Так как схема Бернулли встречается достаточно часто, то попробуем разобраться с характеристиками случайной величины, вероятности значе- ний которой связаны со схемой Бернулли, в общем случае. Предположим, что в некотором опыте, состоящем из n независимых ис- ходов, интересующее нас событие A наступает в каждом из этих исходов с 28 постоянной вероятностью p (соответственно не наступает с вероятностью q = 1 − p). Число исходов, в которых может наступить событие A, будем рассмат- ривать как случайную величину X. Из схемы Бернулли, рассмотренной ранее, вытекает, что вероятность того, что событие A наступит k раз в данном опыте, определяется форму- лой Бернулли P n (k) = p k q n−k Определение 5.9. Дискретная случайная величина X называется распредел¨ енной по биномиальному закону, если вероятности событий {ω k : X = k} определяются по формуле Бернулли. Построим закон распределения этой величины. Интересующее нас событие A может в данном опыте наступить 0 раз, 1 раз, 2 раза, . . . , n − 1 раз, n раз. Подставляя в формулу Бернулли значения k, построим таблицу закона распределения: X 0 1 2 k n − 1 n p q n C 1 n pq n−1 C 2 n p 2 q n−2 C k n p k q n−k C n−1 n p n−1 q p n Чтобы убедиться, что таблица истинна, вычислим сумму вероятностей q n + C 1 n pq n−1 + C 2 n p 2 q n−2 · · · + C k n p k q n−k + C n−1 n p n−1 q + p n Так как q n = C 0 n q n , а p n = C n n p n , то q n + C 1 n pq n−1 + C 2 n p 2 q n−2 · · · + C k n p k q n−k + C n−1 n p n−1 q + p n = = C 0 n q n + C 1 n pq n−1 + C 2 n p 2 q n−2 · · · + C k n p k q n−k + C n−1 n p n−1 q + C n n p n = = (q + p) n = 1 n = 1. Поскольку сумма вероятностей равна 1, то распределение построено правильно. Заметим, что сумма вероятностей, в итоге, превратилась в бином Нью- тона (q + p) n , который и дал название распределению − биномиальное распределение. Далее, нам нужно вычислить математическое ожидание X. Но решать эту задачу «в лоб» с помощью 5.5 проблематично, так как для этого прид¨ ется залезть в дебри комбинаторики. Подойд¨ ем к этой проблеме с другой стороны. Представим, что случайная величина X − число появлений события A яв- ляется суммой чисел появлений события A в отдельных испытаниях. То есть, если случайная величина X 1 − число появлений A в первом испытании; случайная величина X 2 − число появлений A во втором испы- тании; . . . ; случайная величина X |