Главная страница

Учебник Теория вероятности - Самойленко, Кузнецов. Министерство образования и науки украины харьковская национальная академия городского хозяйства


Скачать 2.54 Mb.
НазваниеМинистерство образования и науки украины харьковская национальная академия городского хозяйства
АнкорУчебник Теория вероятности - Самойленко, Кузнецов.pdf
Дата31.01.2017
Размер2.54 Mb.
Формат файлаpdf
Имя файлаУчебник Теория вероятности - Самойленко, Кузнецов.pdf
ТипДокументы
#1455
КатегорияМатематика
страница16 из 20
1   ...   12   13   14   15   16   17   18   19   20

одновременный промах во всех четырех выстрелах
1
– промах прим выстреле
2
– промах прим выстреле
3
– промах прим выстреле
4
– промах прим выстреле х – вероятность попадания при одном выстреле – вероятность промаха при одном выстреле. Тогда вероятность хотя бы одного попадания при четырех выстрелах определится как Р(А) = 1 – Р ) = 1 – Р) = 1 –
Р
(
1
)*Р(
2
)*Р(
3
)*Р(
4
). Считаем, что вероятность промаха (попадания) в цель при каждом выстреле одинакова, те. Р) = Р) = Р) = Р) =
= . Тогда Р(А) = 1 – ( )
4
. По условию задачи Р(А) = 0,9984. Имеем уравнение c одним неизвестным 0,9984 = 1 – ( )
4
. Откуда = 0,2. Вероятность попадания при одном выстреле определится как вероятность противоположного событиях. Вероятность безотказной работы системы параллельно соединенных элементов равна единице минус произведение вероятностей отказов элементов.
2.
24
. Вероятность безотказной работы системы из бесконечного числа последовательно соединенных элементов равна нулю.
2.
25
. Расчет надежности смешанных систем основан на циклическом процессе замены участков системы с однотипным соединением элементов одним элементом с эквивалентной надежностью.
2.
26
.
Р
(А) = p
1 2
[1–(1–p
2
)
2
].
2.
27
.
Р
(А) = p
3
[1–(1–p
2
)(1–p
1
p
2
)].
2.
28
.
Р
(А) = p
3
[1–(1–p
1 2
p
2
) (1–p
3
) (1–p
2 2
)].
3.
1
. Формула полной вероятности используется для определения средней вероятности события А, которое может произойти только с одной из полной группы несовместных гипотез (событий, когда известны априорные вероятности гипотез и условные вероятности наступления события А при условии, что реализовалась таили иная гипотеза.
3.
2
.
Теория вероятностей
168
( )
( ) (
)
i
n
i
i
H
A
P
H
P
A
P
/
1

=
=
3.
3
.
0,85.
3.
4
.
0,86.
3.
5
. Формула Байеса позволяет определять апостериорные (послеопытные) вероятности гипотез.
3.
6
. Если некоторое событие А может произойти только с одним из полной группы несовместных событий (гипотез) Ни известны априорные вероятности гипотез Р(Н
i
)
, условные вероятности Р(А/Н
i
)
события А при условии, что осуществилась таили иная гипотеза, а также известно, что событие А произошло, то апостериорная вероятность гипотезы Н) определяется по формуле
(
)
( ) (
)
( ) (
)

=
=
n
i
i
i
j
j
j
H
A
P
H
P
H
A
P
H
P
A
H
P
1
/
/
/
3.
7
. Формула полной вероятности является составной частью формулы Байеса.
3.
8
. Формула Байеса применяется в распознавании образов для выявления объектов по их нечеткому изображению, технической диагностике для поиска неисправности, в медицинской диагностике для постановки диагноза больному, в радиолокационной технике для отделения сигнала от шума и во многих других задачах, когда необходимо выявить вероятную причину (гипотезу) происшедшего события.
3.
9
. Более вероятной является стрельба из винтовки без оптического прицела, поскольку апостериорная вероятность выстрела из винтовки без оптического прицела (0,558) больше апостериорной вероятности выстрела из винтовки с оптическим прицелом
(0,442).
3.
10
, а 0,5; б 4/15.
3.
11
. Введем обозначения А – событие, которое заключается в попадании двух снарядов в цель при залпе из трех орудий H
1
– гипотеза, состоящая в промахе первым из орудий H
2
– гипотеза, состоящая в попадании первым из орудий В – событие, которое заключается в попадании вторым из орудий
2
– событие, которое заключается в промахе вторым из орудий В – событие, которое заключается в попадании третьим из орудий
3
– событие, которое заключается в промахе третьим из орудий. Тогда по условию задачи Р) = 0,4 , а противоположная вероятность Р) = 1 – 0,4 = 0,6. Условная вероятность Р(А/H
1
) – это вероятность того, что первое орудие даст промаха два остальных – попадание, те. Р(А/H
1
) = Р(H
1
В
2
В
3
) =
= 0,6*0,3*0,5 = 0,09. Условная вероятность Р(А/H
2
) – это вероятность того, что первое орудие даст попадание, а одно из двух оставшихся – промах, те.
Р
(А/H
2
) = Р В) + Р(H
2
В
2 3
) = 0,4*(1–0,7)*0,5 + 0,4*0,3*(1–0,5) = 0,2. Искомую вероятность (апостериорная вероятность промаха первым из орудий) найдем по формуле Байеса:
(
)
( ) (
)
( ) (
)
=
=

=
2 1
1 1
1
/
/
/
i
i
i
H
A
P
H
P
H
A
P
H
P
A
H
P
Ответы
169 4
,
0 2
,
0
*
4
,
0 09
,
0
*
6
,
0 09
,
0
*
6
,
0

+
=
3.
12
. Опыты являются независимыми, если вероятность появления некоторого события в одних опытах не зависит от его появления в других опытах.
3.
13
. Если производится n независимых испытаний, в каждом из которых событие А появляется с одинаковой вероятностью р, то вероятность того, что в этих испытаниях событие А произойдет ровно k раз (безразлично, в какой последовательности) определяется по формуле
( )
k
n
k
k
n
n
p
p
C
k
P


=
)
1
(
3.
14
. Рекомендуется использовать формулу Бернулли при числе испытаний, не превышающем числа 10.
3.
15
.
0,08192.
3.
16
. Обозначим через А событие, которое заключается в появлении простого числа при одном бросании игральной кости. Простыми числами на игральной кости являются 1, 2, 3 и 5, те. число исходов m, благоприятствующих событию А, равно 4. Общее число исходов при одном бросании игральной кости равно 6. Тогда вероятность появления события А, согласно классической формуле вероятности, определится как p = m/n =4/6 = 2/3. Многократные бросания игральной кости являются независимыми экспериментами, в каждом из которых событие А появляется с одинаковой вероятностью p = 2/3. Следовательно, искомая вероятность появления события А ровно 5 разв испытаниях может быть определена с помощью формулы Бернулли P
8
(5) =
= C
8 5
p
5
(1 –p)
8–5
= 56*(2/3)
5
*(1 – 2/3)
8–5
≈ 0,2731.
3.
17
.
P
(A) = P
4
(3) + P
4
(4) =
=C
4 3
p
3
(1 – p)
4–3
+ C
4 4
p
4
(1– p)
4–4
= 4*0,4 3
*(1 – 0,4) + 1*0,4 4
*1 = 0,1536 +
+ 0,0256 = 0,1792.
3.
18
. Если производится n независимых испытаний, в каждом из которых событие А появляется с одинаковой вероятностью р, то вероятность того, что в этих испытаниях событие А произойдет ровно k раз безразлично, в какой последовательности) может быть оценена (тем точнее, чем больше n) по формуле
( )
( )
x
p
np
k
P
n
ϕ
)
1
(
1

=
, где
( )
x
ϕ
– функция Гаусса,
)
1
(
p
np
np
k
x


=
3.
19
. Теорема Бернулли позволяет определить точное значение вероятности, а локальная теорема Лапласа – только оценку.
3.
20
. Функция Гаусса симметрична относительно оси ординат, поскольку она является четной функцией.
3.
21
. Нулю, поскольку аргумент по модулю превышает значение 4.
3.
22
.
0,04565.
3.
23
. Если производится n независимых испытаний, в каждом из которых событие А появляется с одинаковой вероятностью р, то вероятность того, что в этих испытаниях событие А произойдет не менее k
1
разине более k
2
раз безразлично, в какой последовательности) может быть оценена (тем точнее, чем больше n) по формуле
(
)
( )
( )
( )
,
,
1 2
2 1
2 1
х
Ф
х
Ф
dx
x
k
k
P
x
x
n

=

∫ϕ
где
Теория вероятностей
170
)
1
(
1 1
p
np
np
k
x


=
;
)
1
(
2 2
p
np
np
k
x


=
;
( )
dt
e
х
Ф
x
t


=
0 2
2 2
1
π
– функция Лапласа.
3.
24
. Интегральная теорема Лапласа предназначена для оценки вероятности того, что число появлений некоторого события при многократном повторении независимых опытов попадет в заданный диапазон.
3.
25
. Функция Лапласа имеет центральную симметрию относительно начала системы координат, поскольку является нечетной функцией.
3.
26
. Функция Лапласа от аргумента –6,7 равна 0,5, т.к. аргумент по модулю превышает значение 5.
3.
27
, а) 0,8882; б 0,8944; в
0,1056; г 0,1512.
3.
28
. Наивероятнейшим числом наступления события А в n независимых опытах при одинаковой вероятности наступления события А в каждом из них называется число k
0
, которому соответствует максимальная вероятность Р, то есть число
( )
{
}






=
=
k
P
k
n
k ,
1 0
max arg
3.
29
.
np-q

k
0

np+p.
3.
30
. Особенности двойного неравенства значение правой части превышает значение левой ровно на единицу k
0
– целое число внутри диапазона значений [np–q; np+p] может находиться только одно целое число, либо два – на его границах.
3.
31
. Определение осуществляют в следующей последовательности. Сначала вычисляют величину np. Если np – целое число, то k
0
= np. Если np – нецелое число, определяют величину р. Если (р) – целое число, то существует два наивероятнейшего числа р и k
02
=k
01
–1. Если (р) – нецелое число, то k
0
– целое число в диапазоне [np–q; np + p].
3.
32
, а 3; б 1 ив Случайной называют величину, которая в результате опыта принимает заранее неизвестное значение. Дискретными называют случайные величины, которые в результате опыта принимает значения из счетного множества (конечного или бесконечного.
4.
3
. Непрерывными называют случайные величины, которые в результате опыта принимает значения из непрерывного множества ограниченного или неограниченного Закон распределения случайной величины
это соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими вероятностями.
4.
5
. Существует две эффективные формы задания закона распределения дискретной случайной величины ряд распределения и интегральная функция распределения.
4.
6
. Ряд распределения представляет собой таблицу, состоящую из двух строки задающую закон распределения дискретной случайной величины.
4.
7
. Искомый ряд распределения 1 2
p
i
1 / 4 1 / 2 1 / 4
Ответы
171
4.
8
. Искомый ряд распределения
x
i
0 1 2
p
i
1 / 45 16 / 45 28 / 45
4.
9
. Интегральная функция распределения случайной величины X – это функция F(x), которая при каждом значении своего аргумента x численно равна вероятности того, что случайная величина X окажется меньше, чем значение аргумента.
4.
10
. Интегральная функция распределения случайной величины обладает следующими свойствами интегральная функция от минус бесконечности равна нулю интегральная функция от плюс бесконечности равна единице интегральная функция – функция неубывающая.
4.
11
. Искомый ряд распределения 1 Здесь q = 1– р.
Интегральная функция распределения
4.
12
.
{
}
( ) ( )
a
F
b
F
b
X
a
P

=
<

4.
13
. Существует две эффективные формы задания закона распределения непрерывной случайной величины:
интегральная функция распределения и плотность распределения вероятности.
4.
14
. Интегральная функция дискретной случайной величины – ступенчатая функция, те. скачкообразно возрастающая функция, а интегральная функция непрерывной случайной величины – монотонно возрастающая функция.
4.
15
. Вероятность конкретного значения непрерывной случайной величины равна нулю.
4.
16
. Плотностью распределения вероятности непрерывной случайной величины называется первая производная от интегральной функции распределения.
4.
17
.
( )
( )



=
x
dt
t
f
x
F
4.
18
. Интеграл в бесконечных пределах от плотности распределения равен единице.
4.
19
. Плотность распределения – функция неотрицательная.
4.
20
.
{
}
( )

=
<

b
a
dx
x
f
b
X
a
P
4.
21
. Вероятность попадания непрерывной случайной величины на заданный участок числовой оси (a, b) численно равна площади заштрихованной области на графике плотности распределения .
Теория вероятностей
172
4.
22
. Математическое ожидание, мода и медиана.
4.
23
. Математическое ожидание – это средневзвешенное по вероятностям значение случайной величины.
4.
24
. Математическое ожидание характеризует смещение значений случайной величины на числовой оси относительно начала координат.
4.
25
.

=
=
n
i
i
i
x
p
x
m
1
.
4.
26
.
( )





=
dx
x
f
x
m
x
.
4.
27
. Модой называют наиболее вероятное значение случайной величины.
4.
28
. Медианой называют такое значение Ме случайной величины X, для которого справедливо равенство {
}
Me
X
P
Me
X
P
>
=
<
. 4.
29
. Нет.
4.
30
. Математическое ожидание равно 1,2. Мода равна 2.
4.
31
. Начальным моментом го порядка называют математическое ожидание й степени случайной величины.
4.
32
.
i
n
i
k
i
k
p
x

=
=
1
α
.
4.
33
.
( )
dx
x
f
x
k
k




=
α
. Центрированной случайной величиной называют отклонение значения случайной величины от её математического ожидания.
4.
355
. Центральным моментом го порядка называют математическое ожидание й степени центрированной случайной величины.
4.
36
.
(
)
i
s
n
i
x
i
s
p
m
x

=

=
1
µ
.
4.
37
.
(
) ( )
dx
x
f
m
x
s
x
s





=
µ
.
4.
38
. Знак «=».
4.
39
.
0.
4.
40
. Начальный момент го порядка случайной величины характеризует степень разброса случайной величины вокруг её математического ожидания, а также смещение случайной величины на числовой оси относительно начала координат.
4.
41
.
α
2
= ММ. Второй начальный момент используется для определения второго центрального момента.
1   ...   12   13   14   15   16   17   18   19   20


написать администратору сайта