Главная страница

Ответы по билетам ТВиМС. Ответы по билетам. 1 Классическое и аксиоматическое определения вероятностей. Классическое определение вероятности


Скачать 269.2 Kb.
Название1 Классическое и аксиоматическое определения вероятностей. Классическое определение вероятности
АнкорОтветы по билетам ТВиМС
Дата30.11.2019
Размер269.2 Kb.
Формат файлаdocx
Имя файлаОтветы по билетам.docx
ТипДокументы
#97823

1) Классическое и аксиоматическое определения вероятностей.

Классическое определение вероятности. Пусть пространство элементарных событий  Е  состоит из  N  равновозможных элементарных событий, среди которых имеется  n  событий, благоприятствующих событию  А , тогда число

Р ( А ) = n / N

 

называется вероятностью события  А .

Аксиоматическое определение вероятности. Пусть задано пространство элементарных событий  Е  и каждому событию  А Е  поставлено в соответствие единственное число Р ( А ) такое, что:

Тогда говорят, что на событиях в множестве Е задана вероятность, а число Р ( А ) называется вероятностью события  А .

2) Геометрическое и статистическое определения вероятностей.

Пусть случайное испытание можно представить себе как бросание точки наудачу в некоторую геометрическую область G (на прямой, плоскости или пространстве). Элементарные исходы – это отдельные точки G, любое событие – это подмножество этой области, пространства элементарных исходов G. Можно считать, что все точки G «равноправны» и тогда вероятность попадания точки в некоторое подмножество пропорционально его мере (длине, площади, объему) и не зависит от его расположения и формы.

Геометрическая вероятность события А определяется отношением:
,
где m(G), m(A) – геометрические меры (длины, площади или объемы) всего пространства элементарных исходов и события А.

Статистическое определение вероятностей

Относительной частотой события называют отношение числа испытаний, в которых событие появилось, к общему числу практически произведенных испытаний. Таким образом, относительная частота А определяется формулой:

(2)

где m-число появлений события, n-общее число испытаний.

Сопоставляя определение вероятности и относительной частоты, заключаем: определение вероятности не требует, чтобы испытания производились в действительности; определение же относительной частоты предполагает, что испытания были произведены фактически. Другими словами, вероятность вычисляют до опыта, а относительную частоту - после опыта.

3) Алгебра случайных событий.

Множество , элементами которого являются подмножества множества (не обязательно все) называется алгеброй (алгеброй событий), если оно удовлетворяет следующим условиям:

(A1)   (алгебра событий содержит достоверное событие);

(A2)  если , то  (вместе с любым событием алгебра содержит противоположное событие);

(A3)  если и , то  (вместе с любыми двумя событиями алгебра содержит их объединение).

4) Теорема сложения вероятностей.

Суммой двух событий А и В называется событие С, состоящее в появлении хотя бы одного из событий А или В.

Теорема сложения вероятностей

Вероятность суммы двух несовместимых событий равна сумме вероятностей этих событий:

Р (А + В) = Р (А) + Р (В).

В случае, когда события А и В совместны, вер-ть их суммы выражается формулой

Р (А +В) = Р (А) + Р (В) – Р (АВ),

где АВ – произведение событий А и В.

Два события называются зависимыми, если вероятность одного из них зависит от наступления или не наступления другого. в случае зависимых событий вводится понятие условной вероятности события.

Условной вероятностью Р(А/В) события А называется вероятность события А, вычисленная при условии, что событие В произошло. Аналогично через Р(В/А) обозначается условная вероятность события В при условии, что событие А наступило.
5) Теорема умножения вероятностей (и следствия из неё).

Произведением двух событий А и В называется событие С, состоящее в совместном появлении события А и события В.

Теорема  умножения вероятностей

Вероятность произведения двух событий равна вер-ти одного из них, умноженной на условную вероятность другого при наличии первого:

Р (АВ) = Р(А) · Р(В/А), или Р (АВ) = Р(В) · Р(А/В).

Следствие. Вероятность совместного наступления двух независимых  событий А и В равна произведению вероятностей этих событий:

Р (АВ) = Р(А) · Р(В).

Следствие. При производимых n одинаковых независимых испытаниях, в каждом из которых события А появляется с вероятностью р, вероятность появления события А хотя бы один раз равна

1 - (1 - р)n

6) Схема гипотез. Формула полной вероятности.

Если событие А может произойти только при выполнении одного из событий , которые образуют полную группу несовместных событий, то вероятность события А вычисляется по формуле

.

Эта формула называется формулой полной вероятности.

Вновь рассмотрим полную группу несовместных событий , вероятности появления которых . Событие А может произойти только вместе с каким-либо из событий , которые будем называть гипотезами. Тогда по формуле полной вероятности

7) Схема гипотез. Формула Байеса.

Полученная формула называется формулой Байеса (формулой Бейеса). Вероятности гипотез называются апостериорными вероятностями, тогда как - априорными вероятностями.

8) Схема Бернулли. Формула Бернулли.

Проводятся опытов, в каждом из которых может произойти определенное событие («успех») с вероятностью (или не произойти — «неудача» — ). Задача — найти вероятность получения ровно успехов в опыте.

Решение:

Количество успехов — величина случайная, которая имеет биномиальное распределение.

9) Схема Бернулли. Формула Пуассона.

Теорема 15   (теорема Пуассона(1)). Пусть и так, что . Тогда для любого вероятность получить успехов в  испытаниях схемы Бернулли с вероятностью успеха стремится к величине :

10) Функция Лапласа и её основные свойства.

Функцией Лапласа называется функция вида

Свойства:

1) при z>0 функция Лапласа определяет вероятность попадания нормальной случайной величины с параметрами

MX=0

DX=1

в интервале (0, z)

2)

 

3)  - функция нечетная

Иногда в литературе встречаются два вида функций Лапласа

Функция Лапласа табулирована. Функция Лапласа используется для выполнения событий вида для произвольных нормальных величин.
11) Интегральная формула Муавра-Лапласа и её выражение через функцию Лапласа.

Пусть в каждом из независимых испытаний событие A может произойти с вероятностью , (условия схемы Бернулли). Обозначим как и раньше, через вероятность ровно появлений события А в испытаниях. кроме того, пусть – вероятность того, что число появлений события А находится между и .

Локальная теорема Лапласа.

Если n – велико, а р – отлично от 0 и 1, то

где - функция Гаусса (функция табулирована, таблицу можно скачать на странице формул по теории вероятностей).

Интегральная теорема Лапласа.

Если n – велико, а р – отлично от 0 и 1, то

P(n; k1, k2) где - функция Лапласа (функция табулирована, таблицу можно скачать на странице формул по теории вероятностей).

Функции Гаусса и Лапласа обладают свойствами, которые необходимо знать при использовании таблиц значений этих функций:

а)

б) при больших верно .

Теоремы Лапласа дают удовлетворительное приближение при . Причем чем ближе значения к 0,5, тем точнее данные формулы. При маленьких или больших значениях вероятности (близких к 0 или 1) формула дает большую погрешность (по сравнению с исходной формулой Бернулли).

12) Закон больших чисел Бернулли и его выражение через функцию Лапласа.

Закон больших чисел Бернулли.

   Пусть производится последовательность независимых испытаний, в результате каждого из которых может наступить или не наступить событие А, причем вероятность наступления этого события одна и та же при каждом испытании и равна р. Если событие А фактически произошло m раз в n испытаниях, то отношение m/n называют, как мы знаем, частотой появления события А. Частота есть случайная величина, причем вероятность того, что частота принимает значение m/n, выражается по формуле Бернулли (13):

Закон больших чисел в форме Бернулли состоит в следующем: с вероятностью, сколь угодно близкой к единице, можно утверждать, что при достаточно большом числе опытов частота появления события А как угодно мало отличается от его вероятности, т. е.



(55)

иными словами, при неограниченном увеличении числа n опытов частота m/n события А сходится по вероятности к Р(А).

13) Дискретная случайная величина. Таблица распределения вероятностей. Биномиальный закон.

Дискретной случайной величиной называется такая переменная величина, которая может принимать конечную или бесконечную совокупность значений, причем принятие ею каждого из значений есть случайное событие с определенной вероятностью.



Соотношение, устанавливающее связь между отдельными возможными значениями случайной величины и соответствующими им вероятностями, называется законом распределения дискретной случайной величины. Если обозначить возможные числовые значения случайной величины Х через х1, х2, ..., хn,..., а через рi = Р(Х = хi) вероятность появления значения хi, то дискретная случайная величина полностью определяется табл:




xi

х1

x2

...

xn

pi

p1

p2

...

pn

Таблица называется законом распределения дискретной случайной величины Х.

14) Закон Пуассона.

15) Числовые характеристики случайной величины. Понятие о моментах распределения.

Числовыми характеристиками случайных величин являются математическое ожидание и дисперсия, а так же и моменты случайных величин

Математическое ожиданием М(Х) называется средняя величина возможных значений случайных величин, взвешенных по их вероятности. Выражается формулой:

Свойство 1. Мат. ожидание постоянной равно этой постоянной.

Свойство 2. Мат. ожидание суммы случайных величин равно сумме их мат. ожиданий:

Из этого свойства следует следствие:

Математическое ожидание суммы конечного числа случайных величин равно сумме их математических ожиданий:

Свойство 3. Математическое ожидание произведения независимых случайных величин Х и Y равно произведению математических ожиданий этих вел. M(XY)=M(X)·(M)Y.

 

Следствие. Постоянный множитель можно вынести за знак математических ожидания: М(сХ) = сМ(Х)

Дисперсией называется математическое ожидание квадрата отклонения случайных величин от математического ожидания:

D[Х]=M[X-M(X)]2

Свойство 1. Дисперсия постоянной величины равна нулю.

Свойство 2. постоянную величину можно вынести за знак дисперсии, предварительно возведя ее в квадрат:

D(cX) = c2D(X)

Свойство 3. Дисперсия суммы независимых случайных величин Х и Y равна сумме их дисперсий:

D(X+Y) = D(X) + D(Y), от сюда следствие:

если х1, х2,..., хn  - случайные величины, каждая из которых независима от суммы остальных, то

D(X1+X2+...+Xn) = D(X1) + D(X2)+...+D(Xn).

Моментом k-порядка называется математическое ожидание k-й степени отклонения случайной величины Х от некоторой постоянной с.

Если в качестве с берется нуль, моменты называются начальными

νk = М(Х)k

Если с = М(Х), то моменты называются центральными

μ = M[X – M(X)]k
16) Функция распределения вероятностей случайной величины. Основные свойства.

Функция распределения вероятностей и ее свойства.

Функцией распределения вероятностей F(x) случайной величины Х в точке х называется вероятность того, что в результате опыта случайная величина примет значение, меньше, чем х, т.е. F(x)=P{X < х}.
Рассмотрим свойства функции F(x).

1. F(-∞)=lim(x→-∞)F(x)=0. Действительно, по определению, F(-∞)=P{X < -∞}. Событие (X < -∞) является невозможным событием: F(-∞)=P{X < - ∞}=p{V}=0.

2. F(∞)=lim(x→∞)F(x)=1, так как по определению, F(∞)=P{X < ∞}. Событие Х < ∞ является достоверным событием. Следовательно, F(∞)=P{X < ∞}=p{U}=1.

3. Вероятность того, что случайная величина примет значение из интервала [Α Β] равна приращению функции распределения вероятностей на этом интервале. P{Α ≤X<Β}=F(Β)-F(Α).

4. F(x2)≥ F(x1 ), если x2, > x1, т.е. функция распределения вероятностей является неубывающей функцией.

5. Функция распределения вероятностей непрерывна слева. FΨ(xo-0)=limFΨ(x)=FΨ(xo) при х→ xo

17) Плотность распределения вероятностей случайной величины. Основные свойства.

Определение. Плотностью распределения вероятностей непрерывной случайной величины Х называется функция f(x) – первая производная от функции распределения F(x).
            Плотность распределения также называют дифференциальной функцией. Для описания дискретной случайной величины плотность распределения неприемлема.

            Смысл плотности распределения состоит в том, что она показывает как часто появляется случайная величина Х в некоторой окрестности точки х при повторении опытов.

            После введения функций распределения и плотности распределения можно дать следующее определение непрерывной случайной величины. 

            Определение.  Случайная величина Х называется непрерывной, если ее функция распределения F(x) непрерывна на всей оси ОХ, а плотность распределения f(x) существует везде, за исключением( может быть, конечного числа точек.

 

            Зная плотность распределения, можно вычислить вероятность того, что некоторая случайная величина Х примет значение, принадлежащее заданному интервалу.

 

            Теорема. Вероятность того, что непрерывная случайная величина Х примет значение, принадлежащее интервалу (a, b), равна определенному интегралу от плотности распределения, взятому в пределах от a до b.

18) Равномерные распределения.

Непреры́вное равноме́рное распределе́ние — в теории вероятностей - распределение случайной вещественной величины, принимающей значения, принадлежащие интервалу [a, b], характеризующееся тем, что плотность вероятности на этом интервале постоянна.
В теории вероятностей случайная величина имеет дискретное равномерное распределение, если она принимает конечное число значений с равными вероятностями.
19) Нормальный закон.

Нормальное распределение, также называемое распределением Гаусса — распределение вероятностей, которое в одномерном случае задается функцией плотности вероятности, совпадающей с функцией Гаусса:

где параметр μ — математическое ожидание, медиана и мода распределения, а параметр σ — стандартное отклонение (σ² — дисперсия) распределения.
20) Показательный закон.

Экспоненциальное или показательное распределение — абсолютно непрерывное распределение, моделирующее время между двумя последовательными свершениями одного и того же события.

Случайная величина имеет экспоненциальное распределение с параметром , если её плотность имеет вид

.

Пример. Пусть есть магазин, в который время от времени заходят покупатели. При определённых допущениях время между появлениями двух последовательных покупателей будет случайной величиной с экспоненциальным распределением. Среднее время ожидания нового покупателя (см. ниже) равно . Сам параметр тогда может быть интерпретирован как среднее число новых покупателей за единицу времени.

В этой статье для определённости будем предполагать, что плотность экспоненциальной случайной величины задана первым уравнением, и будем писать: .

Интегрируя плотность, получаем функцию экспоненциального распределения:


21) Функция распределения вероятностей случайного вектора и его свойства.

Пусть фиксированное вероятностное пространство, и  — случайный вектор. Тогда распределение , называемое распределением случайного вектора или совместным распределением случайных величин , является вероятностной мерой на . Функция этого распределения задаётся по определению следующим образом:

,

где в данном случае обозначает декартово произведение множеств.

Свойства многомерных функций распределения аналогичны одномерному случаю. Также сохраняется взаимно-однозначное соответствие между распределениями на и многомерными функциями распределения. Однако, формулы для вычисления вероятностей существенно усложняются, и потому функции распределения редко используются для .

22) Плотность распределения вероятностей случайного вектора и его свойства.

Плотность распределения вероятностей - производная функции распределения, отвечающей абсолютно непрерывной вероятностной мере. Пусть X - случайный вектор, принимающий значения в re-мерном евклидовом пространстве , Р( х г, . . ., х п).- его функция распределения и пусть существует неотрицательная функция f(xlt . . ., х п). такая, что

для любых действительных ij, . . ., х п. Тогда/(ij, . . ., х п).наз. плотностью вероятности случайного вектора Xи для любого борелевского множества

Любая неотрицательная интегрируемая функция i(x:, . . ., х п), удовлетворяющая условию

является П. в. некоторого случайного вектора.

23) Числовые характеристики случайного вектора. Свойства корреляционного момента.

Если между случайными величинами и существует стохастическая связь, то одним из параметров, характеризующих меру этой связи является ковариация . Ковариацию вычисляют по формулам

 

.

Если случайные величины и независимы, то .

Обратное, вообще говоря, неверно. Из равенства нулю ковариации не следует независимость случайных величин. Случайные величины могут быть зависимыми в то время как их ковариация — нулевая!

Но зато, если ковариация случайных величин отлична от нуля, то между ними существует стохастическая связь, мерой которой и является величина ковариации.

Интересно отметить, что и .

Кроме того, важны следующие свойства ковариации:

;

;

.

Ковариационной матрицей случайного вектора называется матрица вида

.

Эта матрица симметрична и положительно определена. Ее определитель называется обобщенной дисперсией и может служить мерой рассеяния системы случайных величин .

Как уже отмечалось ранее, дисперсия суммы независимых случайных величин равна сумме их дисперсий: .

Если же случайные величины зависимы, то

.

 

Пример 1. Вычислим ковариации компонент дискретного случайного вектора , заданного распределением

 

2

4

1

0.1

0.2

3

0.3

0.4

 

Корреляция

Понятно, что значение ковариации зависит не только от “тесноты” связи случайных величин, но и от самих значений этих величин, например, от единиц измерения этих значений.

Для исключения этой зависимости вместо ковариации используется коэффициент корреляции .

Этот коэффициент обладает следующими свойствами:

он безразмерен;

его модуль не превосходит единицы, т.е. ;

если и независимы, то (обратное, вообще говоря неверно!);

если , то случайные величины и связаны функциональной зависимостью вида , где инекоторые числовые коэффициенты;

;

Корреляционной матрицей случайного вектора называется матрица

.

Если и , то ковариационная и корреляционная матрицы случайного вектора связаны соотношением

,

где .
24) Связь между независимостью и некоррелированностью случайных величин.

Определение 2.7   С.в. и называются некоррелированными, если

Замечание 2.8   Соотношение между независимостью и некоррелированностью случайных величин можно записать в виде следующей диаграммы:


Независимость



некоррелированность

 

   

 

Прямая импликация была установлена нами в Следствии 2.1. Пример некоррелированных, но зависимых случайных величин будет приведен позже, в   4.4.

Таким образом, если ковариация отлична от нуля, то это свидетельствует о зависимости случайных величин. Для того, чтобы иметь количественный показатель того, насколько сильно зависят друг от друга случайные величины, часто используют коэффициент корреляции:

Оказывается, что всегда

Это можно доказать, применяя хорошо известное неравенство Коши-Буняковского.

Более того, из этого неравенства вытекает, что если , то случайные величины и линейно зависимы:

Замечание 2.9  

Линейная зависимость случайных величин и или, что то же самое, их коллинеарность являются частным случаем их функциональной зависимости, то есть зависимости вида , где  -- некоторая (необязательно линейная) функция двух вещественных переменных. Из вышесказанного следует, что коэффициент корреляции хорошо отражает степень линейной зависимости между случайными величинами. Вместе с тем, позже мы покажем, что коэффициент корреляции может быть совершенно ``нечувствителен'' к функциональной зависимости (см. Замечание 4.2).

Следствие 2.2   Если независимы, то

Вытекает из п. 3) Предложения 2.2 и Следствия 2.1.

Пример 2.7   Рассмотрим вероятностное пространство , определенное формулами (2) и (3), соответствующее последовательности из независимых испытаний Бернулли. Введем случайные величины:

Можно проверить, что -- независимы и имеют бернуллиевское распределение

Число успехов в последовательности независимых испытаний (см. Пример 2.2) можно записать в виде Тогда







 










25) Связь между функцией распределения случайного вектора и функцией распределения любого набора и его компонент.

26) равномерное распределение случайного вектора.

27) Нормальный закон распределения двумерного случайного вектора.

28) Неравенство Чебышева.

Неравенство Чебышёва в теории вероятностей утверждает, что случайная величина в основном принимает значения близкие к своему среднему. Более точно, оно даёт оценку вероятности, что случайная величина примет значение далёкое от своего среднего. Неравенство Чебышёва является следствием неравенства Маркова.


29) Теорема Чебышева.

Теорема: При достаточно большом числе независимых опытов среднее арифметическое полученных в опытах значений случайной величины X сходится по вероятности к ее математическому ожиданию


,
где d, e - сколь угодно  малые величины;    при n®¥ будет выполняться данное неравенство.

Доказательство: Применим неравенство Чебышева для случайной величины
  ,
где   ,    ,   .            Тогда
.

При любом сколь угодно малом значении   ε  можно всегда подобрать n такое, чтобы сделать δ  значительно меньше единицы.

30) Центральная предельная теорема в формуле Ляпунова.

Центральные предельные теоремы (Ц.П.Т.) — класс теорем в теории вероятностей, утверждающих, что сумма большого количества независимых случайных величин имеет распределение, близкое к нормальному. Так как многие случайные величины в приложениях являются суммами нескольких случайных факторов, центральные предельные теоремы обосновывают популярность нормального распределения.

Пусть Х1 … Xn – бесконечная последовательность независимых одинаково распределённых случайных величин, имеющих MX и DX.

– третий момент – по идее, среднеквадратичное отклонение

Ц.П.Т. Ляпунова


Пусть выполнены базовые предположения Ц.П.Т. Линдеберга. Пусть случайные величины {Xi} имеют конечный третий момент. Тогда определена последовательность

. Если предел

(условие Ляпунова),

то

по распределению при .

31) Теорема Бернулли (Закон больших чисел)

Теорема Бернулли. Если в каждом из независимых испытаний вероятность появления события постоянна, то как угодно близка к единице вероятность того, что отклонение относительной частоты от вероятности по абсолютной величине будет сколь угодно малым, если число испытаний достаточно велико. Другими словами, если сколь угодно малое положительное число, то при соблюдении условий теоремы имеет место равенство

При доказательстве теоремы Бернулли получаем оценку

Как видим, теорема Бернулли объясняет, почему относительная частота при достаточно большом числе испытаний обладает свойством устойчивости и оправдывает статистическое определение вероятности (см. §12)

32) Статистическая функция распределения. Полигон и гистограмма.

Статистической функцией распределения случайной величины  называется частота события  в данном статистическом материале:

Для того чтобы найти значение статистической функции распределения при данном , достаточно подсчитать число опытов, в которых величина  приняла значение, меньшее чем , и разделить на общее число  произведенных опытов.

Статистический материал – совокупность наблюдений значений величины.

Полигон частот (в математической статистике) — один из способов графического представления плотности вероятности случайной величины. Представляет собой ломаную, соединяющую точки, соответствующие срединным значениям интервалов группировки и частотам этих интервалов.

Гистогра́мма в математической статистике - это функция, приближающая плотность вероятности некоторого распределения, построенная на основе выборки из него.

Пусть - выборка из некоторого распределения. Определим разбиение числовой прямой . Пусть

- число элементов выборки, попавших в -й интервал. Тогда кусочно-постоянная функция , имеющая вид:

, - называется нормализованной гистограммой.

33) Несмещённая и состоятельная оценка математического ожидания.

Пусть имеется случайная величина  с математическим ожиданием  и дисперсией ; оба параметра неизвестны. Над величиной  произведено  независимых опытов, давших результаты . Требуется найти состоятельные и несмещенные оценки для параметров  и .

В качестве оценки для математического ожидания естественно предложить среднее арифметическое наблюденных значений (ранее мы его обозначали ):

Несмещенной называют статистическую оценку , математическое ожидание которой равно оцениваемому параметру , то есть .

Оценка θназывается состоятельной, если она сходится по вероятности к значению оцениваемого параметра θ при безграничном возрастании объема выборки. Выразим сказанное более подробно. Статистика θnявляется состоятельной оценкой параметра θ тогда и только тогда, когда для любого положительного числа ε справедливо предельное соотношение

34) Несмещённая и состоятельная оценка дисперсии.

35) Доверительный интервал, доверительная вероятность.

Доверительный интервал – предельные значения статистической величины, которая с заданной доверительной вероятностью γ будет находится в этом интервале при выборке большего объема. Обозначается как P(θ - ε < x < θ + ε) = γ. Мерой доверия оценке θ считается вероятность γ того, что погрешность оценки |θ - x| не превысит заданной точности ε: . На практике выбирают доверительную вероятность γ из достаточно близких к единице значений γ = 0.9, γ = 0.95, γ = 0.99.

Доверительная вероятность - вероятность того, что некоторый параметр находится в пределах одностороннего доверительного интервала. 

36) Отыскание доверительного интервала для математического ожидания нормального распределения случайной величины при неизвестной дисперсии.

Доверительным называется интервал, который с заданной надежностью покрывает оцениваемый параметр.

Для оценки математического ожидания случайной величины , распределенной по нормальному закону, при известном среднем квадратическом отклонении служит доверительный интервал

где - точность оценки, - объем выборки, - выборочное среднее, - аргумент функции Лапласа, при котором


написать администратору сайта