Учебник Теория вероятности - Самойленко, Кузнецов. Министерство образования и науки украины харьковская национальная академия городского хозяйства
Скачать 2.54 Mb.
|
– одновременный промах во всех четырех выстрелах 1 – промах прим выстреле 2 – промах прим выстреле 3 – промах прим выстреле 4 – промах прим выстреле х – вероятность попадания при одном выстреле – вероятность промаха при одном выстреле. Тогда вероятность хотя бы одного попадания при четырех выстрелах определится как Р(А) = 1 – Р ) = 1 – Р) = 1 – Р ( 1 )*Р( 2 )*Р( 3 )*Р( 4 ). Считаем, что вероятность промаха (попадания) в цель при каждом выстреле одинакова, те. Р) = Р) = Р) = Р) = = . Тогда Р(А) = 1 – ( ) 4 . По условию задачи Р(А) = 0,9984. Имеем уравнение c одним неизвестным 0,9984 = 1 – ( ) 4 . Откуда = 0,2. Вероятность попадания при одном выстреле определится как вероятность противоположного событиях. Вероятность безотказной работы системы параллельно соединенных элементов равна единице минус произведение вероятностей отказов элементов. 2. 24 . Вероятность безотказной работы системы из бесконечного числа последовательно соединенных элементов равна нулю. 2. 25 . Расчет надежности смешанных систем основан на циклическом процессе замены участков системы с однотипным соединением элементов одним элементом с эквивалентной надежностью. 2. 26 . Р (А) = p 1 2 [1–(1–p 2 ) 2 ]. 2. 27 . Р (А) = p 3 [1–(1–p 2 )(1–p 1 p 2 )]. 2. 28 . Р (А) = p 3 [1–(1–p 1 2 p 2 ) (1–p 3 ) (1–p 2 2 )]. 3. 1 . Формула полной вероятности используется для определения средней вероятности события А, которое может произойти только с одной из полной группы несовместных гипотез (событий, когда известны априорные вероятности гипотез и условные вероятности наступления события А при условии, что реализовалась таили иная гипотеза. 3. 2 . Теория вероятностей 168 ( ) ( ) ( ) i n i i H A P H P A P / 1 ∑ = = 3. 3 . 0,85. 3. 4 . 0,86. 3. 5 . Формула Байеса позволяет определять апостериорные (послеопытные) вероятности гипотез. 3. 6 . Если некоторое событие А может произойти только с одним из полной группы несовместных событий (гипотез) Ни известны априорные вероятности гипотез Р(Н i ) , условные вероятности Р(А/Н i ) события А при условии, что осуществилась таили иная гипотеза, а также известно, что событие А произошло, то апостериорная вероятность гипотезы Н) определяется по формуле ( ) ( ) ( ) ( ) ( ) ∑ = = n i i i j j j H A P H P H A P H P A H P 1 / / / 3. 7 . Формула полной вероятности является составной частью формулы Байеса. 3. 8 . Формула Байеса применяется в распознавании образов для выявления объектов по их нечеткому изображению, технической диагностике для поиска неисправности, в медицинской диагностике для постановки диагноза больному, в радиолокационной технике для отделения сигнала от шума и во многих других задачах, когда необходимо выявить вероятную причину (гипотезу) происшедшего события. 3. 9 . Более вероятной является стрельба из винтовки без оптического прицела, поскольку апостериорная вероятность выстрела из винтовки без оптического прицела (0,558) больше апостериорной вероятности выстрела из винтовки с оптическим прицелом (0,442). 3. 10 , а 0,5; б 4/15. 3. 11 . Введем обозначения А – событие, которое заключается в попадании двух снарядов в цель при залпе из трех орудий H 1 – гипотеза, состоящая в промахе первым из орудий H 2 – гипотеза, состоящая в попадании первым из орудий В – событие, которое заключается в попадании вторым из орудий 2 – событие, которое заключается в промахе вторым из орудий В – событие, которое заключается в попадании третьим из орудий 3 – событие, которое заключается в промахе третьим из орудий. Тогда по условию задачи Р) = 0,4 , а противоположная вероятность Р) = 1 – 0,4 = 0,6. Условная вероятность Р(А/H 1 ) – это вероятность того, что первое орудие даст промаха два остальных – попадание, те. Р(А/H 1 ) = Р(H 1 В 2 В 3 ) = = 0,6*0,3*0,5 = 0,09. Условная вероятность Р(А/H 2 ) – это вероятность того, что первое орудие даст попадание, а одно из двух оставшихся – промах, те. Р (А/H 2 ) = Р В) + Р(H 2 В 2 3 ) = 0,4*(1–0,7)*0,5 + 0,4*0,3*(1–0,5) = 0,2. Искомую вероятность (апостериорная вероятность промаха первым из орудий) найдем по формуле Байеса: ( ) ( ) ( ) ( ) ( ) = = ∑ = 2 1 1 1 1 / / / i i i H A P H P H A P H P A H P Ответы 169 4 , 0 2 , 0 * 4 , 0 09 , 0 * 6 , 0 09 , 0 * 6 , 0 ≈ + = 3. 12 . Опыты являются независимыми, если вероятность появления некоторого события в одних опытах не зависит от его появления в других опытах. 3. 13 . Если производится n независимых испытаний, в каждом из которых событие А появляется с одинаковой вероятностью р, то вероятность того, что в этих испытаниях событие А произойдет ровно k раз (безразлично, в какой последовательности) определяется по формуле ( ) k n k k n n p p C k P − − = ) 1 ( 3. 14 . Рекомендуется использовать формулу Бернулли при числе испытаний, не превышающем числа 10. 3. 15 . 0,08192. 3. 16 . Обозначим через А событие, которое заключается в появлении простого числа при одном бросании игральной кости. Простыми числами на игральной кости являются 1, 2, 3 и 5, те. число исходов m, благоприятствующих событию А, равно 4. Общее число исходов при одном бросании игральной кости равно 6. Тогда вероятность появления события А, согласно классической формуле вероятности, определится как p = m/n =4/6 = 2/3. Многократные бросания игральной кости являются независимыми экспериментами, в каждом из которых событие А появляется с одинаковой вероятностью p = 2/3. Следовательно, искомая вероятность появления события А ровно 5 разв испытаниях может быть определена с помощью формулы Бернулли P 8 (5) = = C 8 5 p 5 (1 –p) 8–5 = 56*(2/3) 5 *(1 – 2/3) 8–5 ≈ 0,2731. 3. 17 . P (A) = P 4 (3) + P 4 (4) = =C 4 3 p 3 (1 – p) 4–3 + C 4 4 p 4 (1– p) 4–4 = 4*0,4 3 *(1 – 0,4) + 1*0,4 4 *1 = 0,1536 + + 0,0256 = 0,1792. 3. 18 . Если производится n независимых испытаний, в каждом из которых событие А появляется с одинаковой вероятностью р, то вероятность того, что в этих испытаниях событие А произойдет ровно k раз безразлично, в какой последовательности) может быть оценена (тем точнее, чем больше n) по формуле ( ) ( ) x p np k P n ϕ ) 1 ( 1 − = , где ( ) x ϕ – функция Гаусса, ) 1 ( p np np k x − − = 3. 19 . Теорема Бернулли позволяет определить точное значение вероятности, а локальная теорема Лапласа – только оценку. 3. 20 . Функция Гаусса симметрична относительно оси ординат, поскольку она является четной функцией. 3. 21 . Нулю, поскольку аргумент по модулю превышает значение 4. 3. 22 . 0,04565. 3. 23 . Если производится n независимых испытаний, в каждом из которых событие А появляется с одинаковой вероятностью р, то вероятность того, что в этих испытаниях событие А произойдет не менее k 1 разине более k 2 раз безразлично, в какой последовательности) может быть оценена (тем точнее, чем больше n) по формуле ( ) ( ) ( ) ( ) , , 1 2 2 1 2 1 х Ф х Ф dx x k k P x x n − = ≈ ∫ϕ где Теория вероятностей 170 ) 1 ( 1 1 p np np k x − − = ; ) 1 ( 2 2 p np np k x − − = ; ( ) dt e х Ф x t ∫ − = 0 2 2 2 1 π – функция Лапласа. 3. 24 . Интегральная теорема Лапласа предназначена для оценки вероятности того, что число появлений некоторого события при многократном повторении независимых опытов попадет в заданный диапазон. 3. 25 . Функция Лапласа имеет центральную симметрию относительно начала системы координат, поскольку является нечетной функцией. 3. 26 . Функция Лапласа от аргумента –6,7 равна 0,5, т.к. аргумент по модулю превышает значение 5. 3. 27 , а) 0,8882; б 0,8944; в 0,1056; г 0,1512. 3. 28 . Наивероятнейшим числом наступления события А в n независимых опытах при одинаковой вероятности наступления события А в каждом из них называется число k 0 , которому соответствует максимальная вероятность Р, то есть число ( ) { } ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ = = k P k n k , 1 0 max arg 3. 29 . np-q ≤ k 0 ≤ np+p. 3. 30 . Особенности двойного неравенства значение правой части превышает значение левой ровно на единицу k 0 – целое число внутри диапазона значений [np–q; np+p] может находиться только одно целое число, либо два – на его границах. 3. 31 . Определение осуществляют в следующей последовательности. Сначала вычисляют величину np. Если np – целое число, то k 0 = np. Если np – нецелое число, определяют величину р. Если (р) – целое число, то существует два наивероятнейшего числа р и k 02 =k 01 –1. Если (р) – нецелое число, то k 0 – целое число в диапазоне [np–q; np + p]. 3. 32 , а 3; б 1 ив Случайной называют величину, которая в результате опыта принимает заранее неизвестное значение. Дискретными называют случайные величины, которые в результате опыта принимает значения из счетного множества (конечного или бесконечного. 4. 3 . Непрерывными называют случайные величины, которые в результате опыта принимает значения из непрерывного множества ограниченного или неограниченного Закон распределения случайной величины – это соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими вероятностями. 4. 5 . Существует две эффективные формы задания закона распределения дискретной случайной величины ряд распределения и интегральная функция распределения. 4. 6 . Ряд распределения представляет собой таблицу, состоящую из двух строки задающую закон распределения дискретной случайной величины. 4. 7 . Искомый ряд распределения 1 2 p i 1 / 4 1 / 2 1 / 4 Ответы 171 4. 8 . Искомый ряд распределения x i 0 1 2 p i 1 / 45 16 / 45 28 / 45 4. 9 . Интегральная функция распределения случайной величины X – это функция F(x), которая при каждом значении своего аргумента x численно равна вероятности того, что случайная величина X окажется меньше, чем значение аргумента. 4. 10 . Интегральная функция распределения случайной величины обладает следующими свойствами интегральная функция от минус бесконечности равна нулю интегральная функция от плюс бесконечности равна единице интегральная функция – функция неубывающая. 4. 11 . Искомый ряд распределения 1 Здесь q = 1– р. Интегральная функция распределения 4. 12 . { } ( ) ( ) a F b F b X a P − = < ≤ 4. 13 . Существует две эффективные формы задания закона распределения непрерывной случайной величины: интегральная функция распределения и плотность распределения вероятности. 4. 14 . Интегральная функция дискретной случайной величины – ступенчатая функция, те. скачкообразно возрастающая функция, а интегральная функция непрерывной случайной величины – монотонно возрастающая функция. 4. 15 . Вероятность конкретного значения непрерывной случайной величины равна нулю. 4. 16 . Плотностью распределения вероятности непрерывной случайной величины называется первая производная от интегральной функции распределения. 4. 17 . ( ) ( ) ∫ ∞ − = x dt t f x F 4. 18 . Интеграл в бесконечных пределах от плотности распределения равен единице. 4. 19 . Плотность распределения – функция неотрицательная. 4. 20 . { } ( ) ∫ = < ≤ b a dx x f b X a P 4. 21 . Вероятность попадания непрерывной случайной величины на заданный участок числовой оси (a, b) численно равна площади заштрихованной области на графике плотности распределения . Теория вероятностей 172 4. 22 . Математическое ожидание, мода и медиана. 4. 23 . Математическое ожидание – это средневзвешенное по вероятностям значение случайной величины. 4. 24 . Математическое ожидание характеризует смещение значений случайной величины на числовой оси относительно начала координат. 4. 25 . ∑ = = n i i i x p x m 1 . 4. 26 . ( ) ∫ ∞ ∞ − ⋅ = dx x f x m x . 4. 27 . Модой называют наиболее вероятное значение случайной величины. 4. 28 . Медианой называют такое значение Ме случайной величины X, для которого справедливо равенство { } Me X P Me X P > = < . 4. 29 . Нет. 4. 30 . Математическое ожидание равно 1,2. Мода равна 2. 4. 31 . Начальным моментом го порядка называют математическое ожидание й степени случайной величины. 4. 32 . i n i k i k p x ∑ = = 1 α . 4. 33 . ( ) dx x f x k k ∫ ∞ ∞ − = α . Центрированной случайной величиной называют отклонение значения случайной величины от её математического ожидания. 4. 355 . Центральным моментом го порядка называют математическое ожидание й степени центрированной случайной величины. 4. 36 . ( ) i s n i x i s p m x ∑ = − = 1 µ . 4. 37 . ( ) ( ) dx x f m x s x s ∫ ∞ ∞ − − = µ . 4. 38 . Знак «=». 4. 39 . 0. 4. 40 . Начальный момент го порядка случайной величины характеризует степень разброса случайной величины вокруг её математического ожидания, а также смещение случайной величины на числовой оси относительно начала координат. 4. 41 . α 2 = ММ. Второй начальный момент используется для определения второго центрального момента. |