Главная страница

Спасибо. Понятие соединения. Перестановки. Сочетания. Размещения. 5


Скачать 205.39 Kb.
НазваниеПонятие соединения. Перестановки. Сочетания. Размещения. 5
АнкорСпасибо
Дата27.02.2020
Размер205.39 Kb.
Формат файлаdocx
Имя файлаTer_ded_Ekzamenatsionnye_voprosy.docx
ТипДокументы
#110133

Оглавление


Случайное событие. Испытание. События достоверные и невозможные, совместные и несовместные. Полная группа событий. Противоположные события. 3

Пространство элементарных событий. Определение случайного события. Операции над событиями. Основные отношения между событиями. 4

Понятие соединения. Перестановки. Сочетания. Размещения. 5

Классическое определение вероятности события. Статистическое определение вероятности события. Геометрическая вероятность. 6

Теорема сложения вероятностей. Следствие. 7

Условная вероятность. Зависимые события и независимые события. Теорема умножения вероятностей. 8

Вероятность наступления хотя бы одного из нескольких независимых событий. 9

Формула полной вероятности. 10

Формула Бейеса 11

Схема Бернулли. Формула Бернулли (доказательство на примере). Наивероятнейшее число появлений события в схеме Бернулли. Вероятность наступления хотя бы одного события. 12

Понятие случайной величины. Дискретная случайная величина. Закон распределения дискретной случайной величины. Функция распределения, ее свойства. 13

Непрерывная случайная величина. Функция распределения и плотность распределения непрерывной случайной величины, их свойства. 14

Математическое ожидание случайной величины, его свойства. 15

Дисперсия случайной величины, ее свойства. Среднее квадратическое отклонение. Центрированные и нормированные случайные величины. 16

Биномиальное распределение, его числовые характеристики. 18

Простейший поток событий и его свойства. Распределение Пуассона, его числовые характеристики и свойства. 19

Равномерное распределение случайной величины, его числовые характеристики. 20

Показательное распределение, его числовые характеристики. 21

Нормальное распределение случайной величины, его свойства и числовые характеристики. 22

Функция Лапласа, ее свойства. Вероятность попадания в интервал случайной величины, распределенной по нормальному закону. 23

Понятие многомерной случайной величины (СВ). Функция распределения двумерной случайной величины, ее свойства. 25

Закон распределения двумерной дискретной случайной величины, его свойства. Получение одномерных законов распределения. 26

Плотность распределения двумерной непрерывной случайной величины, ее свойства. Получение одномерных плотностей. 28

Корреляционный момент и коэффициент корреляции системы двух случайных величин. Свойства коэффициента корреляции. Вероятностный смысл линейной корреляции и зависимости случайных величин. 29

Понятие предельных теорем. Теорема Бернулли (закон больших чисел). 31

Локальная и интегральная теоремы Муавра-Лапласа. 32

Отклонение частоты события от его вероятности в схеме Бернулли. Приближенная формула Пуассона в схеме Бернулли. 33

Основные задачи математической статистики. Генеральная и выборочная совокупности. Виды выборки и методы отбора. 34

Простая статистическая совокупность. Группирование статистических данных для дискретных и непрерывных случайных величин. Полигон и гистограмма. Статистическая функция распределения. 35

Понятие статистической оценки. Точечная оценка числовых характеристик и требования к ней. Точечная оценка математического ожидания. 36


Случайное событие. Испытание. События достоверные и невозможные, совместные и несовместные. Полная группа событий. Противоположные события.


Случайное событие (СС) – явление, которое может произойти или не произойти в определённых условиях.

Испытанием называется воспроизведение этих условий.

Достоверное событие всегда происходит в определённых условиях, невозможное – никогда не происходит. Совместные события могут произойти вместе/одновременно, несовместные – не могут.

Если операции несовместны, то общее число операций –

Если операции совместны, то общее число операций –

Полная группа событий – совокупность несовместных и единственно возможных событий, т. е. в испытаниях всегда происходит одно из них.

Противоположные события – события, которые не происходят вместе.

Пространство элементарных событий. Определение случайного события. Операции над событиями. Основные отношения между событиями.


Пространство элементарных событий (графическое представление):

Точка – элементарное событие

[Определение СС] СС – некоторое подмножество элементарных событий.

Достоверное событие - Ω

Операции над событиями:

Сумма двух событий () – это событие, в результате которого происходит хотя бы одно из слагаемых.

Произведение событий () – событие, в результате которого происходят все из сомножителей.

Основные отношения между событиями:

  1. Отношение включения:

– если происходит А, то происходит и В, но если происходит В, А може т и не происходить. - в лекциях, галочка в этом знаке закруглена, выглядит это так:

  1. Отношение равносильности:



  1. Отношение несовместности:

(пустое множество)

!!!НЕТ В ЛЕКЦИЯХ!!!

- A достоверно

- A невозможно

Понятие соединения. Перестановки. Сочетания. Размещения.


Соединение (комбинация) – какой-то тип совокупности элементов.

Обозначения: n – число элементов всего множества, m – число извлекаемых элементов

Перестановки (англ. – permutation) – – число перестановок из nэлементов

Сочетания (англ. – combination) – – число сочетаний из n элементов по m

Размещения (англ. – arrangement) – – число размещений из n элементов по m

порядок

состав

упорядоченный

Неупорядоченный

постоянный





переменный






Классическое определение вероятности события. Статистическое определение вероятности события. Геометрическая вероятность.


Классическое определение: вероятность события равна отношению количества элементарных исходов подходящих для события к числу всех элементарных исходов

Статистическое определение: вероятность события равна пределу частоты события при бесконечном повторении опыта

Геометрическая вероятность: вероятность того, что наугад выбранная точка А попадёт в область В фигуры С (В содержится в С), равна отношению размера области В к размеру области С. Под размером может пониматься длина, площадь или объём. Пример формулы на объёме


Теорема сложения вероятностей. Следствие.


Теорема сложения вероятностей:

Вероятность суммы двух событий равна сумме их вероятностей минус вероятность и совместного появления.

Доказательство на примере классического распределения:

– числа точек, благоприятствующих соответствующим событиям.

Следствие 1: события несовместны, ,

тогда: – вероятность суммы равна сумме вероятностей

Следствие 2: три события,


Условная вероятность. Зависимые события и независимые события. Теорема умножения вероятностей.


условная вероятность события А при условии, что событие В произошло.

События могут быть зависимыми и независимыми, если , .

Отличие от детерминированной зависимости между событиями - детерминированное событие А определенно (достоверно) влечет за собой событие В. Для вероятностной зависимости, с наступлением одного события возможно произойдет другое.

Теорема умножения вероятностей:

- для зависимых событий.

Для независимых .

Вероятность наступления хотя бы одного из нескольких независимых событий.


A, B- независимые события;

;

;

;

;

;

.

Хотя бы 1 событие это:

1) только первое событие (, );

2) только второе событие (, );

3) оба события (, ).
Частный случай

Если P(A)=P(B)


Формула полной вероятности.


Полная вероятность события – сумма произведений вероятностей гипотез на условную вероятность события А при этих гипотезах.

А – событие которое может произойти при нескольких условиях, эти условия называются гипотезами (H1, H2, …, Hn), n – число гипротез.

Гипотезы – такие СС, каждая из них имеет вероятность P(Hi).
ДОКОЗАТЕЛЬСТВО

А=А*Ω

Ω = {H1, H2, …, Hn}

A = A (H1, H2, …, Hn) = AH1+ AH2+ …+AHn = (Т. Умножения) = P(H1)P(A/H1)+P(H2)P(A/H2)+…+P(Hn)P(A/Hn)

Смысл:

Полная вероятность события А – это сумма всех вероятностей совместного наступления этого события при всех гипотезах.

Формула Бейеса


Вероятность гипотезы при событии А:

P(Hi) – доопытная вероятность гипотезы

P(Hi/A) – после опытная вероятность

ДОКАЗАТЕЛЬСТВО

P(HiA) или P(AHi) по теореме умножения

P(HiA) = P(A)P(Hi/A) = P(Hi)P(A/Hi)


Схема Бернулли. Формула Бернулли (доказательство на примере). Наивероятнейшее число появлений события в схеме Бернулли. Вероятность наступления хотя бы одного события.


Производится n испытаний все в одинаковых условиях, в каждом из них может произойти событие A: ; , в n событиях может произойти m событий.

Ф-ла Бернулли

, где – в n испытаниях происходит m событий А.

ДОК-ВО

Пусть n=4, m=2, ; 1A; 0не А.



I

II

III

IV

1

0

0

1

1

2

0

1

0

1

3

1

0

0

1

4

1

0

1

0

5

1

1

0

0

6

0

1

1

0

Наивероятнейшее число событий в схеме Бернулли – такое число для которого является наибольшим.

Вероятность наступления хотя бы одного события

Bхотя бы одно событие, т.е. m = 1, 2, 3, …, n.

Не B0 событий


Понятие случайной величины. Дискретная случайная величина. Закон распределения дискретной случайной величины. Функция распределения, ее свойства.


СВ – переменная величина которая принимает наперёд неизвестное значение в каждом испытании

Дискретная СВ – такая СВ, которая принимает одно из перечисленных значений или такие значения, которые можно пронумеровать.

Закон распределения ДСВ

x= – CC, где СВ принимает значение



() – многоугольник распределения

– это вероятность того, что СВ произойдёт левее х малое

Свойства:

1) 0≤≤1 и -безразмерная величина

2)Монотонность. – пусть α<β. ()

Пределы:

А)

Б)

Непрерывная случайная величина. Функция распределения и плотность распределения непрерывной случайной величины, их свойства.


НСВ – СВ, которая принимает все значения на некотором интервале (конечном или бесконечном)
– непрерывная функция

Вероятность события х=α принимает предельную форму

Вероятность конкретного НСВ=0, противоречие исчезает если иметь ввиду, что значений НСВ на интервале бесконечно.

Плотность распределения НСВ

f(x) – плотность распределения ()

Свойства

1) f(x) – неотрицательная функция, т.к. – неубывающая функция, т.е.

2) Свойства нормированности:

– площадь фигуры под графиком плотности равна 1.
Если НСВ в интервале [a,b], то

3) Размерность плотности обратна размерности СВ

Связь между f(x) (производная) и F(x) (первообразная)

Вероятность попадания в интервал равна площади криволинейной трапеции с основанием α, β

Математическое ожидание случайной величины, его свойства.


Синоним: среднее значение СВ (M(x), M[x], )

ДСВ:

НСВ:

Смысл этих формул одинаков. X – значение, f(x)dx - вероятность

Смысл мат. ожидания:

M(x) – это центр рассеивания СВ.

СВ принимает значение левее и правее центра

Аналогию можно привести с центром тяжести с центром тяжести механической конструкции

Свойства

  1. МО – константа

  2. МО линейной комбинации СВ
    Следствие:

A)

Б)

3) Если 2 СВ – независимы, то

4) Размерность M(x) совпадает с размерностью СВ

Дисперсия случайной величины, ее свойства. Среднее квадратическое отклонение. Центрированные и нормированные случайные величины.


Дисперсия СВ – число квадрата отклонения МО, , (где () - отклонение)

Формулы на основе этого определения для ДСВ и НСВ
Свойства

1)

2)






Размерная дисперсия является недостатком этой числовой хар-ки.

Для устранения этого недостатка используется

Размерность соответствует с размерностью СВ.
Центрированные и нормированные СВ

Центрированная СВ – это новая СВ

Нормированные СВ -

Свойства






Биномиальное распределение, его числовые характеристики.




Проводится nнезависимых испытаний. В каждом испытании событие А происходит с вероятностью p, а противоположное событие A - с вероятностью q.

Случайной величиной является число появлений события А в этих испытаниях: X = 0, X = 1, X = 2, ..., X = n, то есть X = m, где m = 0, 1, 2, ..., n.

Другими словами, X = X1 + X2 + ... + Xn, где Xi =1 соответствует появлению события А, а Xi = 0 соответствует появлению события A в i-м испытании.

Распределение случайной величины X находится по формуле Бернулли:


n
Pn(m) = P(X = m) = Cm pmqnm , m = 0, 1, 2, ... , n.

Биномиальным называется распределение вероятностей, определяемое формулой Бернулли.

Такое название распределение имеет потому, что вероятность Pn(m) есть m-й член разложения бинома (p + q)n.
ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ БИНОМИАЛЬНОГО РАСПРЕДЕЛЕНИЯ

Математическое ожидание, дисперсия и среднее квадратическое отклонение случайной величины, распределенной по биномиальному закону с параметрами n и p, вычисляется по формулам:

mx = M(X) = np, Dx = D(X) = npq, x

Доказательство.

Пусть Xi- число событий в i-м испытании: Xi=0 или Xi =1.

Математическое ожидание числа событий в i-м испытании:

M(Xi) = 1p + 0q = p.

Случайная величина X есть сумма случайных величин Xi. Поэтому

M(X) = M ( Xi )  p np .

Вычислим D(X1):

D(X1) = M (X12 )  mx 2 = (12p + 02q)  p2 = p p2 = p(1p) = pq.

Поскольку случайные величины независимы, то

D(X) = D(X1) + D(X2) + ... + D(Xn) = nD(X1)

Итак, D(X) = npq, x

Простейший поток событий и его свойства. Распределение Пуассона, его числовые характеристики и свойства.



Потоком событий называется последовательность событий, которые наступают в случайные моменты времени.

Простейший поток – это поток событий, обладающий свойствами стационарности, отсутствия последействия и ординарности.

Примеры потоков событий: вызовы абонентов на телефонной станции; отказы элементов большой технической системы; прибытие клиентов в банк или парикмахерскую; прилет самолетов в аэропорт.

СВОЙСТВА

1)Стационарность, которая заключается в том, что вероятность появления m событий за интервал времени T зависит только от m и T и не зависит от положения этого интервала на оси времени.

2)Отсутствие последействия, что означает: вероятность появления m событий на некотором интервале времени не зависит от числа и последовательности событий до начала этого интервала.

3)Ординарность, состоящая в том, что вероятность появления двух, трех и более событий за достаточно малый интервал времени пренебрежимо мала по сравнению с вероятностью появления одного события.
РАСПРЕДЕЛЕНИЕ ПУАССОНА И ЕГО СМЫСЛ

Распределение Пуассона – это распределение дискретной случайной величины X, принимающей значения 0, 1, 2, …, при которых вероятность того, что случайная величина X примет значение m, имеет вид:

где P(m) - вероятность появления m событий на интервале времени [0, t]; - интенсивность потока, или среднее число событий в единицу времени.

Интенсивность потока является параметром простейшего потока; ее размерность обратна размерности времени.

Смысл распределения Пуассона: оно описывает простейший (пуассоновский) поток, который обладает свойствами стационарности, отсутствия последействия и ординарности (здесь эти свойства распределения Пуассона не рассматриваются).

Проверка показывает, что условия неотрицательности и нормированности выполняются:


ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ РАСПРЕДЕЛЕНИЯ ПУАССОНА

Математическое ожидание, дисперсия с среднее квадратическое отклонение случайной величины X вычисляются по формулам (без доказательства):


Равномерное распределение случайной величины, его числовые характеристики.


Равномерным называется такое распределение непрерывной случайной величины, плотность которого постоянна на интервале возможных значений

Итак,

Площадь над плотностью = 1

Графики плотности и функции распределения:



ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ РАВНОМЕРНОГО РАСПРЕДЕЛЕНИЯ

Математическое ожидание, дисперсия и среднее квадратическое отклонение равномерного распределения вычисляются по формулам:





Показательное распределение, его числовые характеристики.


Показательным называется распределение, плотность которого имеет вид:

где  - параметр распределения (постоянная величина).

Функция распределения:

Итак,

Условия для плотности выполняются:

1)f(x)≥0;2)

Графики для плотности и функции распределения:

ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ПОКАЗАТЕЛЬНОГО РАСПРЕДЕЛЕНИЯ

Математическое ожидание, дисперсия и среднее квадратическое отклонение показательного распределения вычисляются по формулам:

Доказательство:


Нормальное распределение случайной величины, его свойства и числовые характеристики.



Нормальным называется распределение непрерывной случайной величины плотностью f(x)=

Функция распределения: - Гаусс

Условия неотрицательности и нормированности выполняются.

График колоколообразный

Числовые характеристики: mx = a, Dx = 2, x = .

Нормальное распределение – это единственное распределение, в формуле которого математическое ожидание и среднее квадратическое отклонение (дисперсия) присутствуют в чистом виде.

График плотности нормального распределения имеет холмообразный, симметричный

относительно x = a вид. В точке x = a – максимум плотности распределения, вточках x1 = a –  и

x2 = a +  имеет место перегиб графика плотности.
Смысл. Нормальный закон – очень важный закон, это закон природы: он является предельным законом, к которому приближается закон распределения большого числа случайных величин, подчиненным другим законам. Это свойство является содержанием центральной предельной теоремы, которую мы будем изучать позднее.

Применение нормального распределения. Нормальное распределение используют для описания погрешностей измерений; отклонения от цели при стрельбе; массы, размеров и других параметров деталей, изделий и других предметов.

Функция Лапласа, ее свойства. Вероятность попадания в интервал случайной величины, распределенной по нормальному закону.


Определение. Функцией Лапласа называется интеграл вида.

Геометрический смысл функции Лапласа :

- это площадь криволинейной трапеции с основанием

[0, х] , ограниченная плотностью распределения

Функция Лапласа не выражается в элементарных функциях; она про табулирована и приведена в таблицах.

Связь между для нормированной нормально распределенной

Случайной величины: = 0,5 +
СВОЙСТВА ФУНКЦИИ ЛАПЛАСА.



то есть — нечетная функция;

  1. ;



  2. 2



ВЕРОЯТНОСТЬ ПОПАДАНИЯ В ИНТЕРВАЛ СЛУЧАЙНОЙ ВЕЛИЧИНЫ,

РАСПРЕДЕЛЕННОЙ ПО НОРМАЛЬНОМУ ЗАКОНУ

Постановка задачи: дана плотность распределения Dх) и функция распре-

деления Ех) случайной величины, распределенной по нормальному закону.

Найти вероятность попадания случайной величины Х в интервал [, ].
Формула для этой вероятности


Доказательство по определению

Понятие многомерной случайной величины (СВ). Функция распределения двумерной случайной величины, ее свойства.


Синоним: многомерная СВ

Такая СВ м.б. двумерной, трехмерной, многомерная.

Двумерная СВ

(x;y) одномерная СВ (компоненты)

X и Y - СВ

x и y – значения СВ
Функция распределения двумерной случайной величины

Смысл: Штриховка – квадрант (часть плоскости)

Свойства:

  1. 0 =1 , т.к. Это вероятность


2) Монотонность










3) Предельное значения

F (-∞; -∞) = 0 т.к. (x < -∞, y < -∞) невозможное

F (-∞; y) = 0 x< -∞

F(x; -∞) = 0 y< -∞

Закон распределения двумерной дискретной случайной величины, его свойства. Получение одномерных законов распределения.




Y1

Y2

_

yn

X1

P11

P12




P1n

X2

P21

P22




P2n

-----













xm

Pm1

Pm2




Pmn


Pij = вероятность совместного наступление двух событий.

X=

Y=

Свойство Нормированности:
Сумма всех элементов матрицы распределения равна 1

Для непрерывной двумерной СВ: плотность распределения равна


Двумерная СВ – это вторая смешанная частная производная.

Вероятность попадания СВ в область D :

По двумерному распределению СВ можно получить распределение каждую Св. Обратная операция не всегда возможна.
Общее правило получения одномерных распределений:

Для получения распределения одной СВ следует положить другую СВ, равной ∞.

Смысл: При такой операция вторая СВ может принимать любое значение.

Второй СВ могут быть независимыми или зависимыми по аналогии со СС для независимых СВ.

Совместные распределения распадаются на 2 множества, каждый из них функция одной переменной.

Они зависимы , если :

Плотность распределения двумерной непрерывной случайной величины, ее свойства. Получение одномерных плотностей.



Определение. Плотностью распределения двумерной непрерывной случайной величины (Х.У) называется вторая смешанная частная производная от

Синонимы: дифференциальная функция распределения, двумерная плотность распределения.

Геометрический смысл плотности: z= есть функция двух переменных являющаяся уравнением поверхности, которая называется поверхностью распределения.

Пояснение. Плотность распределения одномерной непрерывной случайной величины была определена как производная от .

Для двумерной непрерывной случайной величины плотность определяется аналогично с помощью смешанной частной производной.

По плотности распределения может быть получена функция распределения


СВОЙСТВА ПЛОТНОСТИ РАСПРЕДЕЛЕНИЯ ДВУМЕРНОЙ

СЛУЧАЙНОЙ ВЕЛИЧИНЫ
1) свойство не отрицательности

2) свойство нормированности

Геометрический смысл этих свойств.

Поверхность, заданная уравнением , расположена не ниже плоскости Оxy. Объем тела, образованного этой поверхностью и плоскостью Оху, равен 1.

Замечание. Указанные свойства являются условиями, которым должна удовлетворять функция f(x,y) чтобы быть плотностью.

Аналогично вводится понятие плотности распределения и-мерной случайной величины:

Корреляционный момент и коэффициент корреляции системы двух случайных величин. Свойства коэффициента корреляции. Вероятностный смысл линейной корреляции и зависимости случайных величин.


Корреляционный момент 2х СВ – мат. ожидание произведения этих центрированных СВ.

Обозначение: ,

Синоним: ковариация случайных величин X и Y.

Размерность равна произведению размерностей случайных величин X и Y.

Смысл корреляционного момента: это число характеризует тесноту вероятностной связи двух случайных величин.

Вычисление корреляционного момента для дискретной и непрерывной СВ:

Компактная формула:

Доказательство (основано на свойствах мат. ожидания):

Коэффициент корреляции системы двух СВ – число, равное отношению корреляционного момента к произведению средних квадратических отклонений этих случайных величин

Обозначение: , .

Частные случаи:

  1. Если, то =1

  2. Если , то

Свойства корреляции

1. Коэфф. корреляции – это число

Если , то между СВ положительная корреляция (при возрастании СВ другая имеет тенденция к возрастанию. Это выражается в том, что мат. ожидание 2й СВ возрастает, т.е. изменяется закон распределения 2й СВ).

Если , то корреляция отрицательная.

2. Чем больше , тем сильнее вероятностная зависимость.

3. Если , то СВ не коррелированы.

4. Если , то зависимость между СВ детерминированная.

Вероятностный смысл линейной корреляции

Линейная корреляция характеризует линейную зависимость между СВ, которая заключается в том, что при возрастании одной СВ другая имеет тенденцию в среднем возрастать (или убывать) по линейному закону. Коэффициент корреляции дает характер и меру этой линейной зависимости между случайными величинами + см. в свойства.

Понятие предельных теорем. Теорема Бернулли (закон больших чисел).


Предельные теоремы теории вероятностей описывают поведение случайных величин при большом числе испытаний. Они разбиваются на 2 класса:

  1. Закон больших чисел (ЗПЧ) – это любое утверждение о сходимости среднего результата (значения) к некоторому числу.

  2. Центральная предельная теорема (ЦПТ) – это любое утверждение о сходимости распределения суммы СВ к нормальному закону.

Если суммируют большое число СВ, то распределение суммы приближается к нормальному закону при любом распределении компонент (исходных СВ).

Теорема Бернулли (закон больших чисел)

Пусть n – испытания, A событие произошло n раз с вероятность p, m – число испытаний, – относит. частота события А.

Теорема. При неограниченном увеличении числа независимых испытаний относительная частота события сходится по вероятности к вероятности этого события, то есть ; , – любое (сколь угодно малое) положительное число.

Схематическое представление: ⸺⸺⸺⸺⸺⸺⸺→ p ()

При больших, но конечных событиях:

является практически достоверным

является практически невозможным

Отсюда при больших n → . На практике считают .

Локальная и интегральная теоремы Муавра-Лапласа.


Локальная теорема Муавра-Лапласа

Пусть P=P(A): 0,1
, – функция Гаусса, , – нормированная и центрированная СВ.

При больших n:

Интегральная предельная теорема Муавра-Лапласа

При прежних условиях вероятность попадания числа событий в интервал вычисляется с помощью нормального закона: , – функция Лапласа.

, При конечных, но больших n

Отклонение частоты события от его вероятности в схеме Бернулли. Приближенная формула Пуассона в схеме Бернулли.


Отклонение частоты события от его вероятности в схеме Бернулли.

Пусть проводится n испытаний, p = p(A) - вероятность события A; 0,1
Требуется найти вероятность того, что отклонение относительной частоты (A) = m/n от вероятности p по абсолютному значению не превышает  , то есть найти вероятность того, что будет соблюдено неравенство   p   .

На основании теоремы Муавра-Лапласса получаем формулу:

Формула связывает 4 независимых параметра:





  1. p или q (p+q=1)

  2. n – число испытаний

Параметр x и вероятность  связаны однозначно. По трем любым параметрам можно найти четвертый.

Приближенная формула Пуассона в схеме Бернулли.

Пусть проводится n испытаний, p = p(A) - вероятность события A, a = np = const. Среднее число событий постоянно при различных значениях n.

ТЕОРЕМА

При неограниченном увеличении числа испытаний и при постоянном a = np, вероятность появления m событий приближается к формуле Пуассона:



Формулу Пуассона применяют, когда вероятность события p мала, то есть событие А является редким. В то же время число испытаний n должно быть достаточно большим. Итак, при больших n и малых p можно пользоваться приближенной формулой:

Формула тем точнее, чем больше n и чем меньше p. Формула дает хорошее приближение при n  100 и p < 0,01. Примечание. Формула Пуассона описывает простейший поток событий.

Основные задачи математической статистики. Генеральная и выборочная совокупности. Виды выборки и методы отбора.


Математическая статистика – это раздел математики, в котором изучаются методы сбора, обработки и анализа экспериментальных данных, полученных в результате наблюдений над массовыми случайными явлениями.

К основным задачам математической статистики относятся:

  1. Оценивание характеристик изучаемых явлений, объектов, то есть нахождение подходящих значений характеристик.

  2. Установление детерминированных и вероятностных закономерностей, в частности, определение законов распределения случайных величин.

  3. Проверка статистических гипотез.

  4. Обеспечение методики сбора, обработки и анализа статистических данных, планирование эксперимента.

Генеральной совокупностью называется вся (полная) совокупность (множество) изучаемых объектов.

Выборочной совокупностью (выборкой) называется часть генеральной совокупности, отобранная для обследования.

Виды выборок можно классифицировать по двум признакам, а именно, по способу составления и по способу отбора

По способу составления: Повторная (выборка, при которой объект, попавший в выборку, после обследования возвращается в генеральную совокупность и может снова попасть в выборку) и бесповторная (выборка, при которой отобранный объект в генеральную совокупность не возвращается, то есть любой объект исследуется не более одного раза)

По способу отбора – случайный (При случайном отборе любой объект генеральной совокупности имеет равные с остальными возможности попасть в выборку), типический (отбор, при котором генеральная совокупность делится на «типические» части по некоторым типовым признакам, а объекты извлекаются из этих «типических» частей), механический (отбор, при котором генеральная совокупность «механически» делится на части и из каждой части отбирается по одному объекту),серийный (отбор, при котором объекты отбирают из генеральной совокупности не по одному, а сериями; каждая серия подвергается сплошному обследованию)

Организация выборок называется отбором.

Простая статистическая совокупность. Группирование статистических данных для дискретных и непрерывных случайных величин. Полигон и гистограмма. Статистическая функция распределения.


Простой статистической совокупностью (простым статистическим рядом) называется совокупность наблюдаемых значений случайной величины.

Простая статистическая совокупность – это первичный статистический материал. Она оформляется в виде таблицы:

i

1

2

3



n













i - номер наблюдения; - соответствующее значение случайной величины.

Группирование статистических данных заключается в построении статистического ряда по исходному статистическому материалу.

СТАТИСТИЧЕСКИЙ РЯД ДЛЯ ДИСКРЕТНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ

Статистическим рядом дискретной случайной величины называется вариационный ряд, каждому значению которого приписана частота .

Статистический ряд оформляется в виде таблицы:


























СТАТИСТИЧЕСКИЙ РЯД ДЛЯ НЕПРЕРЫВНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ

Возможные значения случайной величины разбивают на k разрядов (интервалов) и подсчитывают число значений случайной величины, попавших в каждый разряд.

Статистический ряд (интервальный статистический ряд) имеет вид:

























где k - число разрядов; - частота i-го разряда.
ПОЛИГОН

Полигон строится по статистическому ряду. Нанесем точки ( на плоскость и соединим их отрезками.

Полигоном называется ломаная, отрезки которой соединяют точки ( Полигон представляет собой графическое изображение статистического ряда дискретной случайной величины.

Статистический смысл полигона.

Полигон является статистическим аналогом многоугольника распределения дискретной случайной величины. Он дает представление о том, насколько часто встречается каждое значение в данной выборке.

ГИСТОГРАММА

Гистограммой называется ступенчатая фигура, состоящая из прямоугольников, основаниями которых служат интервалы , а высоты равны / .

Статистический смысл гистограммы.

Гистограмма является аналогом графика плотности распределения. Поэтому по виду гистограммы можно высказать предположение о виде плотности распределения.

Статистической функцией распределения называется функция, равная частоте события X < x, то есть

Графиком этой функции является ступенчатая функция.

Понятие статистической оценки. Точечная оценка числовых характеристик и требования к ней. Точечная оценка математического ожидания.


Статистической оценкой называется числовая характеристика, вычисленная по данным выборки (по статистическим данным).

Точечной называется оценка числовой характеристики случайной величины, если неизвестный параметр оценивается одним числом.

К точечной оценке предъявляется ряд требований для того, чтобы она была «хорошей», «доброкачественной». С этой точки зрении точечная оценка должна обладать тремя свойствами: несмещенностью(оценка , математическое ожидание которой равно оцениваемому параметру  при любом объеме выборки, т.е. M( ) = ), состоятельностью(оценка, которая приближается (сходится по вероятности) к параметру , то есть для любого  > 0: ),иэффективностью(оценка, если при заданном объеме выборки n она обладает наименьшей дисперсией по сравнению с другими оценками, то есть оценками, вычисленными по другим формулам: D( ) = min.)

Точечная оценка МО.

Такая оценка называется выборочным средним (число, равное среднему арифметическому наблюдаемых значений случайной величины). Обозначение

Вычисление выборочного среднего:

  1. по данным простой статистической совокупности

  2. по сгруппированным данным статистического ряда для дискретной случайной величины

  3. по сгруппированным данным статистического ряда для непрерывной случайной величины

где - наблюдаемые значения случайной величины X (признака X генеральной совокупности); - середина i-го интервала; k – число дискретных значений или интервалов; = /n - частота значения или частота i-го разряда; - число значений , полученных в выборке или число значений непрерывной случайной величины, попавших в i-й разряд.

2 основных свойства :

  1. оценкой М( =

Смысл несмещенности: значения случаются левее или правее от в равной мере

  1. оценкой D( =

Смысл состоятельности: при увеличении объема выборки разброс уменьшается. При D(

Чем больше объем выборки, тем ближе к


написать администратору сайта