Главная страница

Лекция 5 Дискретные случайные величины


Скачать 0.51 Mb.
НазваниеЛекция 5 Дискретные случайные величины
Дата19.11.2020
Размер0.51 Mb.
Формат файлаpdf
Имя файлаbiderman_dsv.pdf
ТипЛекция
#152103
страница2 из 4
1   2   3   4
+ p
3
+ · · · + p n−1 1
0
Рис. 5.3
Задача 5.6. В условиях задачи 5.1 постройте график функции распре- деления δ.
Решение. Используя алгоритм построения (см. стр.9), имеем:
При x ≤ 2: F (x) = P (δ < x) = 0.
При 2 < x ≤ 5: F (x) = P (δ < x) = P (δ = 2) = 0, 46.
При 5 < x ≤ 8: F (x) = P (δ < x) = P (δ = 2) + P (δ = 5) =
= 0, 46 + 0, 29 = 0, 75.
При 8 < x ≤ 11: F (x) = P (δ < x) = P (δ = 2) + P (δ = 5) + P (δ = 8) =
= 0, 46 + 0, 29 + 0, 11 = 0, 86.
При x ≥ 11: F (x) = P (δ < x) = P (δ = 2) + P (δ = 5) + P (δ = 8)+
+P (δ = 11) ⇒ F (x) = P (δ < x) = 1.
F (x) =











0,
если x ≤ 2,
0, 46, если 2 < x ≤ 5,
0, 75, если 5 < x ≤ 8,
0, 86, если 8 < x ≤ 11,
1,
если x > 11.
x
F(x)
2 5
8 11 0, 46 0, 75 0, 86 1
0 10

Задача 5.7. На пути движения автомашины 4 светофора, каждый из которых запрещает дальнейшее движение автомашины с вероятностью
0,5. Случайная величина H − число светофоров, пройденных машиной до первой остановки. Составьте закон распределения H и постройте гра- фик функции распределения H.
Решение. Рассмотрим события, связанные с условием задачи, и опре- делим их вероятности.
1. H = 0: A
0
=автомобиль попал под запрещающий сигнал на первом светофоре.
p({H = 0}) = p({A
0
}) = 0, 5.
2. H = 1: A
1
=автомобиль проехал первый семафор без остановки и
B
1
=автомобиль попал под запрещающий сигнал на втором светофоре.
Так как A
2
и B
2
− независимые события, то p({H = 1}) = p({A
1
}) · p({B
1
}) ⇒
⇒ p({H = 1}) = (1 − 0, 5) · 0, 5 ⇒ p({H = 1}) = 0, 25.
3. H = 2: A
2
=автомобиль проехал первый и второй семафоры без остановки и
B
2
=автомобиль попал под запрещающий сигнал на третьем светофоре.
Так как A
2
и B
2
− независимые события, то p({H = 2}) = p({A
2
}) · p({B
2
}) ⇒
⇒ p({H = 2} = (1 − 0, 5)
2
· 0, 5 ⇒ p({H = 2}) = 0, 125.
4. H = 3: A
3
=автомобиль проехал первый, второй и третий семафоры без остановки и
B
3
=автомобиль попал под запрещающий сигнал на четв¨
ертом светофоре.
Так как A
3
и B
3
− независимые события, то p({H = 3}) = p({A
3
}) · p({B
3
}) ⇒
⇒ p({H = 3} = (1 − 0, 5)
3
· 0, 5 ⇒ p({H = 3}) = 0, 0625.
5. H = 4: A
4
=автомобиль проехал все четыре семафора без остановки.
p({H = 4}) = p({A
4
}) ⇒
⇒ p({H = 4} = (1 − 0, 5)
4
⇒ p({H = 4}) = 0, 0625.
Так как 0, 5 + 0, 25 + 0, 125 + 0, 0625 + 0, 0625 = 1, то можно утвер- ждать, что закон распределения дискретной случайной величины H имеет следующий вид:
11

Y
0 1
2 3
4
p 0, 5 0, 25 0, 125 0, 0625 0, 0625
Далее, используя алгоритм построения (см. стр.9) и опыт решения за- дачи 5.7, имеем:
При x ≤ 0: F (x) = P (H < x) = 0.
При 0 < x ≤ 1: F (x) = P (H < x) = P (H = 0) = 0, 5.
При 1 < x ≤ 2: F (x) = P (H < x) = P (H = 0) + P (H = 1) =
= 0, 5 + 0, 25 = 0, 75.
При 2 < x ≤ 3: F (x) = P (H < x) = P (H = 0) + P (H = 1) + P (H = 2) =
= 0, 5 + 0, 25 + 0, 125 = 0, 875.
При 3 < x ≤ 4: F (x) = P (H < x) = P (H = 0) + P (H = 1)+
+P (H = 2) + P (H = 3) =
+0, 5 + 0, 25 + 0, 125 + 0, 0625 = 0, 9375.
При x ≥ 4: F (x) = P (H < x) = P (H = 0) + P (H = 1) + P (H = 2)+
+P (H = 3) + P (H = 4) ⇒ F (x) = P (H < x) = 1.
Собирая полученную информацию, имеем
F (x) =















0,
если x ≤ 0,
0, 5, если 0 < x ≤ 1,
0, 75, если 1 < x ≤ 2,
0, 875, если 2 < x ≤ 3,
0, 9375, если 3 < x ≤ 4,
1,
если x > 4.
На основании расч¨
етов строим график F (x):
x
F(x)
1 2
3 4
0, 5 0, 75 0, 875 0, 9375 1
0 5.3.1. Свойства функции распределения
Из определения 5.3 и рисунка 5.2 можно вывести следующие свойства функции распределения:
Свойство 5.1. ∀ x 0 ≤ F (x) ≤ 1.
12

Это очевидно, так как F (x) определяется с помощью вероятности события.
Свойство 5.2. ∀ x
1
, x
2
: x
1
< x
2
⇒ F (x
1
) ≤ F (x
1
).
-
X
0
X
x
1
x
2
A
z
}|
{
B
z
}|
{
|
{z
}
C
Рис. 5.4
Воспользуемся Рис.5.4. Пусть событие C = {ω : X(ω) < x
2
}. Предста- вим его как сумму событий
A = {ω : X(ω) < x
1
} и B = {ω : x
1
≤ X(ω) < x
2
}: C = A + B.
Так как A и B − несовместные события, то из теоремы ?? о сложении вероятностей следует, что P (C) = P (A) + P (B).
То есть, P (X < x
2
) = P (X < x
1
) + P (x
1
≤ X < x
2
). Следовательно,
F (x
2
) = F (x
1
) + P (x
1
≤ X < x
2
).
Так как вероятность P (x
1
≤ X < x
2
) ≥ 0 по определению, то
F (x
1
) ≤ F (x
2
).
Свойство 5.3.
lim x→−∞
F (x) = 0.
Если на Рис. 5.2 «заставить» точку x стремиться влево, то видно, что событие {ω : X(ω) < x}, состоящее в том, что случайная величина X
окажется левее, чем x, становится невозможным, а его вероятность − рав- ной нулю.
Свойство 5.4. lim x→∞
F (x) = 1.
Точно также, перемещая точку x на рисунке 5.2 вправо, можно убе- диться, что событие {ω : X(ω) < x} в пределе становится достоверным. А
значит его вероятность стремится к единице.
§ 5.4. Числовые характеристики дискретной случайной величины
5.4.1. Математическое ожидание распределения дискретной случайной величины
С точки зрения теории вероятности закон распределения полностью описывает случайную величину. Но получение всей содержащейся в н¨
ем информации во-первых избыточно во многих случаях, а во-вторых требует затрат на получение этой информации.
Для практических целей нужно иметь гораздо меньше информации,
чтобы получить представление о поведении изучаемой случайной величи- ны.
Если представлять множество значений случайной величины как не- который интервал, расположенный на числовой прямой, то нужно знать
13

«центр» этого интервала, то есть места, где расположена основная «масса вероятности». А также нужно знать «радиус» этого интервала, как «меру рассеяния» этой «массы вероятности» относительно «центра».
Пусть известен закон распределения дискретной случайной величины
X:
X
x
1
x
2
x n−1
x n
p p
1
p
2
p n−1
p n
Определение 5.4. Математическим ожиданием
1
случайной величи- ны X называется скалярное произведение вектора значений случайной величины на вектор соответствующих им вероятностей.
То есть,
M (X) = x
1
p
1
+ x
2
p
2
+ · · · + x n−1
p n−1
+ x n
p n
(5.5)
Или, в сжатом виде:
M (X) =
n
X
i=1
x i
p i
Задача 5.8. В условиях задачи 5.1 найдите математическое ожида- ние δ.
Решение. Согласно формуле 5.5,
M (X) = 2 · 0, 46 + 5 · 0, 29 + 8 · 0, 11 + 11 · 0, 14.
Выполнив вычисления, получаем M (X) = 4, 79.
Задача 5.9. В магазине продаются 5 отечественных и 3 импортных холодильника. Случайная величина P − число импортных холодильников из четыр¨
ех наудачу выбранных холодильников.
1. Составьте закон распределения случайной величины P .
2. Вычислите математическое ожидание случайной величины P .
Решение. Рассмотрим события, связанные с условием задачи.
Найд¨
ем общее число вариантов выбора 4-х холодильников из имеющих- ся 8. Так как мы не делаем между холодильниками различий, то выбор реализуется с помощью сочетаний:
Далее, рассмотрим благоприятные варианты выбора и вычислим соот- ветствующие вероятности событий.
n = C
4 8
⇒ n =
8!
4! · 4!
⇒ n = 70.
1. P = 0: A
0
=выбрали 0 импортных холодильников из 3 импортных и
B
0
=выбрали 4 отечественных холодильника из 5 отечествен- ных.
1
Термин математическое ожидание связан с ожиданием выигрыша в азартных играх, с желанием определить среднее значение предполагаемого выигрыша с помощью математики.
14

Так как события A
0
и B
0
являются независимыми, то согласно принципу произведения m({P = 0}) = m({A
0
}) · m({B
0
}).
m({A
0
}) = C
0 3
⇒ m({A
0
}) = 1;
m({B
0
}) = C
4 5
⇒ m({B
0
}) = 5.
Следовательно, m({P = 0}) = 1 · 5 ⇒ m({P = 0}) = 5.
В итоге, из классического определения вероятности следует, что p({P = 0}) =
m({P = 0})
n
⇒ p({P = 0}) =
5 70
⇒ p({P = 0}) =
1 14 2. P = 1: A
1
=выбрали 1 импортный холодильник из 3 импортных и
B
1
=выбрали 3 отечественных холодильника из 5 отечествен- ных.
Точно также, как и в пункте 1, определим p({P = 1}).
m({P = 1}) = m({A
1
}) · m({B
1
}).
m({A
1
}) = C
1 3
⇒ m({A
1
}) = 3;
m({B
1
}) = C
3 5
⇒ m({B
1
}) = 10.
Следовательно, m({P = 1}) = 3 · 10 ⇒ m({P = 1}) = 30.
В итоге, из классического определения вероятности следует, что p({P = 1}) =
m({P = 1})
n
⇒ p({P = 1}) =
30 70
⇒ p({P = 1}) =
3 7
3. P = 2: A
2
=выбрали 2 импортных холодильника из 3 импортных и
B
2
=выбрали 2 отечественных холодильника из 5 отечествен- ных.
Также, как и в первых пунктах, определим p({P = 2}).
m({P = 2}) = m({A
2
}) · m({B
2
}).
m({A
2
}) = C
2 3
⇒ m({A
2
}) = 3;
m({B
2
}) = C
2 5
⇒ m({B
2
}) = 10.
Следовательно, m({P = 2}) = 3 · 10 ⇒ m({P = 2}) = 30.
В итоге, имеем p({P = 2}) =
m({P = 2})
n
⇒ p({P = 2}) =
30 70
⇒ p({P = 2}) =
3 7
4. P = 3: A
3
=выбрали 3 импортных холодильника из 3 импортных и
B
3
=выбрали 1 отечественный холодильник из 5 отечествен- ных.
Аналогично пунктам 1-3, определим p({P = 3}).
15
m({P = 3}) = m({A
3
}) · m({B
3
}).
m({A
3
}) = C
3 3
⇒ m({A
3
}) = 1;
m({B
3
}) = C
1 5
⇒ m({B
3
}) = 5.
Следовательно, m({P = 3}) = 1 · 5 ⇒ m({P = 3}) = 5.
В итоге, имеем p({P = 3}) =
m({P = 3})
n
⇒ p({P = 3}) =
5 70
⇒ p({P = 3}) =
1 14
Так как
1 14
+
3 7
+
3 7
+
1 14
= 1, то можно утверждать, что закон распре- деления дискретной случайной величины P имеет следующий вид:
P
0 1
2 3
p
1 14 3
7 3
7 1
14
Используя формулу 5.5, вычислим математическое ожидание дискрет- ной случайной величины P :
M (P ) = 0 ·
1 14
+ 1 ·
3 7
+ 2 ·
3 7
+ 3 ·
1 14
= 1 ·
1 2
⇒ M (P ) = 1, 5.
Задача 5.10. Из опыта сдачи экзамена некоторому преподавателю предыдущими поколениями студентов установлено, что сдать ему эк- замен на «отлично» можно с вероятностью 0, 3, на «хорошо» − с ве- роятностью 0, 4. Какова вероятность получить у этого преподавателя другие оценки, если математическое ожидание случайной величины S,
связанной с распределением оценок у данного преподавателя при случай- но выбранном билете, равно 3, 9.
Решение. Согласно Положению о высшей школе, S может принимать значения из множества {2 3, 4, 5}.
Допустим, что x и y − вероятности того, что сдающий может соответ- ственно получить оценки «неудовлетворительно» и «удовлетворительно».
Составим предполагаемый закон распределения дискретной случайной величины S:
S
2 3
4 5
p x y 0, 4 0, 3 .
Согласно условию 5.1, сумма вероятностей должна быть равна единице,
поэтому x + y + 0, 4 + 0, 3 = 1.
Кроме этого, согласно условию и формуле 5.5, имеем
2x + 3y + 4 · 0, 4 + 5 · 0, 3 = 3, 9.
16

Приведя подобные члены в каждом из уравнений, составим систему

x + y = 0, 3,
2x + 3y = 0, 8.
Решив систему, получим x = 0, 1, а y = 0, 2.
Следовательно, у данного преподавателя можно получить
«удовлетворительно» с вероятностью 0,2 и «неудовлетво- рительно» с вероятностью 0,1.
Замечание 5.2. В том случае, когда дискретная случайная величи- на X принимает бесконечное множество значений (см. замечание 5.1), е¨
е математическое ожидание является суммой абсолютно сходящегося ряда:
M (X) =

X
i=1
x i
p i
5.4.2. Вероятностный смысл математического ожидания
Предположим, что опыт состоит из n исходов, в которых дискретная случайная величина X приняла k
1
раз значение x
1
, k
2
раз значение x
2
, . . . ,
k s
раз значение x s
. При этом k
1
+ k
2
+ · · · + k s
= n.
Тогда сумма всех значений, принятых случайной величиной X равна:
S = k
1
x
1
+ k
2
x
2
+ · · · + k s
x s
Определим среднее арифметическое ¯
X всех значений, принятых случайной величиной. С этой целью разделим S на число исходов опыта n:
¯
X =
k
1
x
1
+ k
2
x
2
+ · · · + k s
x s
n
,
или
¯
X = x
1
k
1
n
+ x
2
k
2
n
+ · · · + x s
k s
n
(5.6)
Так как k
1
n
− относительная частота W
1
значения x
1
(см. ??),
k
2
n

относительная частота W
2
значения x
2
и так далее, то перепишем представ- ление (5.6) в виде
¯
X = x
1
W
1
+ x
2
W
2
+ · · · + x s
W
s
(5.7)
Будем считать, что число исходов опыта n → ∞. Тогда, как следует из замечания (после определения 5.4) относительная частота стремится к вероятности появления события.
То есть, W
1
≈ p
1
, W
2
≈ p
2
, . . . , W
s
≈ p s
17

Заменим в представлении (5.7) относительные частоты соответствую- щими вероятностями:
¯
X ≈ x
1
p
1
+ x
2
p
2
+ · · · + x s
p s
Правая часть полученного приближ¨
енного равенства является математи- ческим ожиданием случайной величины X.
Таким образом, ¯
X ≈ M (X).
Следовательно, с точки зрения теории вероятности математическое ожи- дание приблизительно
1
равно среднему арифметическому возможных зна- чений дискретной случайной величины.
5.4.3. Свойства математического ожидания
Свойство 5.5. Математическое ожидание постоянной величины равно самой постоянной величине:
M (C) = C.
Свойство 5.6. Постоянный множитель можно выносить за знак ма- тематического ожидания:
M (CX) = CM (X).
Свойство 5.7. Математическое ожидание суммы двух случайных ве- личин равно сумме их математических ожиданий:
M (X + Y ) = M (X) + M (Y ).
Чтобы сформулировать следующее свойство, понадобится следующее
Определение 5.5. Две случайные величины называются независимы- ми, если закон распределения одной из них не зависит от того, какие возможные значения может принимать другая величина.
Свойство 5.8. Математическое ожидание произведения двух незави- симых случайных величин равно произведению их математических ожи- даний:
M (XY ) = M (X) · M (Y ).
Замечание 5.3. Естественно можно доказать, что свойства 5.7 и 5.8
имеют место для любого конечного числа случайных величин
2
:
M (X
1
+ X
2
+ · · · + X
n
) = M (X
1
) + M (X
2
) + · · · + M (X
n
).
(5.8)
M (X
1
X
2
. . . X
n
) = M (X
1
) · M (X
2
) . . . M (X
n
).
(5.9)
1
Чем большим является число исходов опыта n, тем более точным является данное равенство.
2
С уч¨
етом взаимной независимости величин в случае их произведения.
18

5.4.4. Дисперсия дискретной случайной величины
Математическое ожидание как характеристика случайной величины да-
¨
ет много информации о ней, но, как видно из следующих примеров, этой информации оказывается недостаточно.
Рассмотрим законы распределения двух случайных величин:
X
−0, 1 0, 1
p
0, 5 0, 5
Y
−100 100
p
0, 5 0, 5
Найд¨
ем математические ожидания каждой из случайных величин:
M (X) = −0, 1 · 0, 5 + 0, 1 · 0, 5 ⇒ M (X) = 0.
M (Y ) = −100 · 0, 5 + 100 · 0, 5 ⇒ M (Y ) = 0.
Случайные величины X и Y имеют одинаковые математические ожида- ния, но их возможные значения не равны. При этом, в одном случае воз- можные значения располагаются вблизи математического ожидания, а в другом случае удалены от него.
Проблема заключается в отсутствии информации о рассеянии возмож- ных значений случайных величин относительно математического ожида- ния.
Чтобы исследовать вопрос о рассеянии, рассмотрим отклонение случай- ной величины от е¨
е математического ожидания.
Определение 5.6. Отклонением называется разность между случай- ной величиной X и е¨
е математическим ожиданием M (X).
Из определения следует, что отклонение X − M (X) является случайной величиной, обладающей следующим свойством.
Теорема 5.1. Математическое ожидание отклонения случайной ве- личины от е¨
е математического ожидания равно нулю:
M (X − M (X)) = 0.
Используя свойства 5.5 и 5.8 математического ожидания, имеем
M (X − M (X)) = M (X) − M (M (X)) = M (X) − M (X) = 0.
Из данной теоремы вытекает, что определять рассеяние возможных зна- чений случайной величины с помощью математического ожидания откло- нения невозможно. Объяснить это можно тем, что одни отклонения явля- ются положительными числами, а другие − отрицательными. Поэтому их алгебраическая сумма обращается в нуль.
Вследствие этого возникают два варианта: исследовать математическое ожидание модуля отклонения
1
или квадрата отклонения. Практическое
1
Так как модуль не является всюду дифференцируемой функцией, то при его исследовании возни- кает много проблем
19
применение получил второй вариант.
Определение 5.7. Дисперсией дискретной случайной величины назы- вается математическое ожидание квадрата отклонения случайной ве- личины от е¨
е математического ожидания:
D(X) = M (X − M (X))
2
(5.10)
Замечание 5.4. Из определения следует, что дисперсия случайной ве- личины является неотрицательной константой.
При расч¨
етах дисперсии е¨
е определение оказывается очень неудобным в силу большого числа вычислений. Поэтому рассмотрим следующую тео- рему.
Теорема 5.2. Формула вычисления дисперсии Дисперсия равна разности между математическим ожиданием квадрата случайной ве- личины и квадратом е¨
е математического ожидания:
D(X) = M X
2
 − (M (X))
2
(5.11)
Используя свойства 5.5 и 5.8 математического ожидания, получаем
M (X − M (X))
2
= M (X
2
− 2X(M (X) + (M (X)
2
) =
= M X
2
 − 2M (X)M (X) + (M (X)
2
1   2   3   4


написать администратору сайта