Главная страница
Навигация по странице:

  • Тема 4. Дискретная случайная величина

  • Тема 5. Непрерывная случайная величина

  • Тема 6. Системы случайных величин

  • Тема Элементы комбинаторики Комбинаторика это наука о расположении элементов в определенном порядке и о подсчете числа способов такого расположения


    Скачать 1.75 Mb.
    НазваниеТема Элементы комбинаторики Комбинаторика это наука о расположении элементов в определенном порядке и о подсчете числа способов такого расположения
    Дата23.11.2021
    Размер1.75 Mb.
    Формат файлаpdf
    Имя файлаlekcii16.pdf
    ТипКонспект
    #280266
    страница2 из 6
    1   2   3   4   5   6
    Тема 3. Повторные независимые испытания
    В теории вероятностей и ее приложениях большое значение имеет простая схема случайного эксперимента, которую называют схемой Бернулли или схемой независимых испытаний. Испытания или опыты называют независимыми, если вероятность каждого
    исхода не зависит от того, какие исходы имели другие опыты, т.е. вероятность каждого исхода остается постоянной от опыта к опыту.
    Пусть производится независимых опытов, в каждом из которых может появиться или не появиться событие . Причем вероятность появления события в каждом опыте равна , а вероятность непоявления равна
    . Требуется найти вероятность того, что в независимых опытах событие произойдет ровно раз. В качестве примеров описанной схемы можно назвать бросание монеты ( -- выпадение герба), стрельбу по цели в неизменных условиях ( -- попадание в цель), изготовление деталей при заданном технологическом режиме ( -- изготовление бракованной детали) и т.д.
    Найдем вероятность
    . Все возможные случаи появления события раз в опытах можно перебрать следующим образом. Возьмем букв и букв и будем их между собой переставлять. Каждая перестановка соответствует определенной очередности появления или непоявления события . Например, соответствует ситуации, в которой событие появилось в первом опыте, во втором и третьем не появилось, появилось в четвертом и т.д. Всего вариантов будет столько, сколькими способами можно из мест выбрать различных (порядок не важен!) и поставить на них букву , т.е. способов. Вероятность любого из этих способов (в силу независимости опытов, а значит, и событий) равна по теореме умножения вероятностей
    Появление хотя бы одного из этих несовместных исходов приводит к появлению интересующего нас события, поэтому или
    Это и есть формула Бернулли.
    Замечание, При вычислении факториалов п!=1
    , 1!=1, 0!=1.
    Пример. Хлебозавод выпускает изделий высшего сорта. Взяли наугад четыре изделия. 1) Какова вероятность того, что среди них только одно высшего сорта? 2) хотя бы одно изделие высшего сорта?
    Решение: в данном случае вероятность того, что взятая наугад буханка имеет высший сорт, равна
    , не имеет –
    и не изменяется от изделия к изделию.
    Поэтому можно считать, что мы имеем дело со схемой независимых испытаний и пользоваться формулой Бернулли.
    1)

    2) Вторую вероятность легче вычислить с помощью противоположного события:
    Вычислим все вероятности:
    ,
    ,
    ,
    , и сравним их между собой. Для наглядности построиммногоугольник распределения вероятностей. На горизонтальной оси отметим значения k , а на вертикальной – соответствующие им вероятности (см. рис.).
    Легко видеть, что есть такое значение числа появления событий (
    ), которому соответствует наибольшая вероятность. Назовем такое значение наивероятнейшим и обозначим через
    . Для небольших можно отыскать наивероятнейшее значение простым перебором, но для больших следует найти наиболее экономный способ.
    Общий случай.
    Зафиксируем и убедимся в том, что с ростом сначала возрастает, а потом, достигнув наибольшего значения при
    (которое может повториться дважды), убывает. Для этого рассмотрим отношение
    Так как
    , то из полученного выражения следует

    1
    , если
    2.
    , если
    3.
    , если
    Итак,
    , но отстоит влево от не дальше чем на единицу (иначе между ними поместилось бы
    , которое согласно неравенству было бы наивероятнейшим). Поэтому
    . Так как
    – целое число, а длина интервала равна единице, то приходим к выводу: наивероятнейшим числом появлений события в независимых опытах является целое число
    , заключенное в пределах
    (наивероятнейших чисел будет два, если целое).
    Пример. а) Игральный кубик подбрасывается 50 раз. Каково наиболее вероятное число выпадения двух очков? Здесь
    ,
    Следовательно, б) Если кубик подбрасывается всего 17 раз, то наивероятнейших числа будет два, так как
    (целое число). В этом случае или
    Локальная теорема Лапласа
    Решим следующую задачу (задача Банаха). Некто носит в кармане две коробки спичек (по 60 спичек каждая) и всякий раз, когда нужна спичка, наугад берет коробку и вынимает спичку. Какова вероятность того, что когда первая коробка будет пуста, во второй все еще останется 20 спичек? Выбор коробки можно рассматривать как независимое испытание, в котором с вероятностью выбирается первая коробка.
    Всего опытов производится и в этих ста опытах первая коробка должна быть выбрана 60 раз. Вероятность этого равна

    Из записи видно, что при больших пользоваться формулой Бернулли затруднительно из-за громоздких вычислений. Существуют специальные приближенне формулы, которые позволяют находить вероятности
    , если велико. Одну из таких формул дает следующая теорема.
    Теорема 1 Лапласа (локальная). Если в схеме Бернулли
    , то вероятность того, что событие наступит ровно раз, удовлетворяет при больших соотношению где
    Для удобства вводится в рассмотрение функция
    - локальная функция Лапласа и с ее помощью утверждение теоремы Лапласа можно записать как
    (*)
    Существуют специальные таблицы функции
    , по которым для любого значения можно найти соответствующее значение функции. Получены эти таблицы путем разложения функции в ряд.
    Геометрически этот результат означает, что для больших многоугольник распределения хорошо вписывается в график функции (*) и вместо истинного значения вероятности можно для каждого брать значение функции в точке .

    Вернемся теперь к задаче:
    , где значение (2) найдено по таблице.
    Теорема 2 Лапласа (интегральная).
    Вероятность того, что в схеме n независимых испытаний событие наступит от k до k раз приближенно равна P (k k )
    , где
    - интегральная функция Лапласа, для которой составлены таблицы. Функция нечетная: Ф(-х)=-Ф(х) и Ф(х 4)=0,5.
    Рассмотрим пока без доказательства еще одно утверждение.
    Отклонение относительной частоты от вероятности p в n независимых испытаниях равно P(
    < ) = 2
    Пример. Вероятность появления события в каждом из 900 независимых испытаний равна 0.5. 1)Найти вероятность того, что событие произойдет от 400 до 500 раз:
    Р
    (400=
    =
    2)Найти вероятность того, что относительная частота появления события отклонится от его вероятности по абсолютной величине не более, чем на 0,02:

    Р(
    = 2 2
    Формула Пуассона
    Если зафиксировать число опытов , а вероятность появления события в одном опыте изменять, то многоугольник распределения будет иметь различный вид в зависимости от величины (см. рис.). При значениях , близких к
    , многоугольник почти симметричен и хорошо вписывается в симметричный график функции Лапласа.
    Поэтому приближенная формула Лапласа дает хорошую точность.
    Для малых (на практике меньших
    ) приближение плохое из-за несимметричности многоугольника распределения. Поэтому возникает задача найти приближенную формулу для вычисления вероятностей в случае больших и малых .Ответ на этот вопрос дает формула Пуассона.
    Итак, рассмотрим схему независимых испытаний, в которой велико (чем больше, тем лучше), а мало (чем меньше, тем лучше). Обозначим
    =
    . Тогда по формуле
    Бернулли имеем
    Последнее равенство верно в силу того, что
    (второй замечательный предел).При получении формулы наивероятнейшего числа появления события к было рассмотрено отношение вероятностей. Из него следует, что

    Т.о., при много меньших имеем рекуррентное соотношение
    Для к=0 учтем полученный ранее результат:
    , тогда
    ………………
    Итак, если в схеме независимых испытаний п велико, а р мало, то имеет место формула Пуассона Р (к)
    , где =пр.
    Закон Пуассона еще называют законом редких явлений.
    Пример. Вероятность выпуска бракованной детали равна 0,02. Детали упаковываются в коробки по 100 штук. 1).Какова вероятность того, что в коробке нет бракованных деталей? 2)Какова вероятность, что в коробке больше двух бракованных деталей?
    1)Так как п велико, а р мало, имеем
    . Р
    (0)
    2)Р
    (к>2)=1-Р
    1-
    Таким образом, в схеме независимых испытаний для вычисления вероятности Р
    (к) следует пользоваться формулой Бернулли , если п невелико, если п велико, то в зависимости от величины р используется одна из приближенных формул Лапласа или формула Пуассона.
    Дополнение о значении закона Пуассона. Мы рассмотрели формулу Пуассона как приближение для формулы Бернулли. Однако, значение еѐ гораздо шире. Пусть события происходят во времени и фиксируются случайные моменты их появления.(Например, моменты распада атомов в кусочке радия, моменты прихода посетителей в систему
    массового обслуживания, моменты прохождения автомашин через пункт ДПС на шоссе, моменты выхода из строя некоторого устройства и т. д.). Для наглядности можно моменты наступления событий отмечать на числовой оси точками. Во всех подобных ситуациях мы имеем дело с простейшим потоком событий.
    Поток является простейшим, если выполняются условия:
    1. Появление или непоявление события в момент t не зависит от событий, предшествующих моменту t.
    2. Вероятность появления события за малый промежуток времени пропорциональна длине этого промежутка, т.е. равна
    , где
    - некоторая постоянная.
    3. Вероятность появления двух и более событий за малый промежуток времени есть величина более высокого порядка малости по сравнению с
    . Вероятность того, что за отрезок времени длины произойдет к событий равна Р (к)=
    . Параметр в условиях 2.и 3.равен среднему числу событий за единицу времени.
    Среднее число событий за время равно
    . Смысл условий 1.,2.,3. Состоит в том, что события, образующие поток должны быть независимы и поток ординарным, т.е.события должны происходить по одному, а не группами Ясно, что условия эти не жестки и можно назвать много ситуаций, в которых они хотя бы приближенно выполняются. Приведенные условия можно нестрого переформулировать следующим образом. Пусть события происходят независимо друг от друга во времени (или пространстве) и поток событий ординарен. Тогда, если на интервал времени приходится в среднем событий, то вероятность попадания на этот интервал к событий приблизительно равна Р(к)=
    Пример. В тесто положили изюм из расчета по пять изюмин на одну булку и тщательно перемешали тесто. Из выпеченных булок взяли наугад одну. Какова вероятность того, что в ней имеется по меньшей мере одна изюмина? Ясно, что условия 1-
    3 выполнены и
    Поэтому Р(к
    1-Р(0)=1-
    Можно назвать много примеров, где используется формула Пуассона. Например, по закону Пуассона распределены автомашины на шоссе вдали от светофоров, капли дождя на асфальте (или шляпе), опечатки в книге, бактерии на питательной среде, моменты поломки сложных приборов, число посетителей в системе массового обслуживания, звезды в старых шаровых скоплениях, число радиоактивных распадов в куске радиоактивного вещества и т.д. Причина такого широкого распространения пуассоновских вероятностей состоит в том, что если взять большое число независимых потоков малой интенсивности, то суммарный поток будет приблизительно пуассоновский.

    Это строго доказано во всех перечисленных примерах мы имеем дело именно с такими суммарными потоками.
    Тема 4. Дискретная случайная величина
    Различают два вида случайных величин: дискретные и непрерывные.
    Определение: Случайной называется величина, которая в результате испытания принимает только одно значение из возможного множества своих значение, наперед неизвестное и зависящее от случайных причин.
    Определение: Случайная величина Х называется дискретной (прерывной), если множество ее значений конечное или бесконечное, но счетное.
    Другими словами, возможные значения дискретной случайной величину можно перенумеровать.
    Описать случайную величину можно с помощью ее закона распределения.
    Определение: Законом распределения дискретной случайной величины называют соответствие между возможными значениями случайной величины и их вероятностями.
    Закон распределения дискретной случайной величины Х может быть задан в виде таблицы, в первой строке которой указаны в порядке возрастания все возможные значения случайной величины, а во второй строке соответствующие вероятности этих значений, т.е. x x
    1 x
    2 х
    3
    … х n p р
    1 р
    2 р
    3 р
    n где р1+ р2+…+ рn=1
    Такая таблица называется рядом распределения дискретной случайной величины.
    Если множество возможных значений случайной величины бесконечно, то ряд р1+ р2+…+ рn+… сходится и его сумма равна
    1.
    Закон распределения дискретной случайной величины Х можно изобразить графически, для чего в прямоугольной системе координат строят ломаную, соединяющую
    последовательно точки с координатами (xi;pi), i=1,2,…n. Полученную линию называют многоугольником распределения:
    Закон распределения дискретной случайной величины Х может быть также задан аналитически
    (в виде формулы):
    P(X=xi)=φ(xi),i =1,2,3…n
    Тема 5. Непрерывная случайная величина
    Определение непрерывной случайной величины данное ранее не является математически строгим. Ниже мы определим непрерывную случайную величину, используя функцию, называемую плотностью распределения вероятности или просто плотностью распределения.
    Случайную величину
    Х называют непрерывной
    (непрерывно распределенной) величиной, если существует такая неотрицательная функция p(t), определенная на всей числовой оси, что для всехх функция распределения случайной величины F(x) равна:
    При этом функция p(t) называется плотностью распределения вероятностей непрерывной случайной величины.
    Если такой функции p(t) не существует, то Х не является непрерывно распределенной случайной величиной.

    Таким образом, зная плотность распределения, по формуле (6.7) можно легко найти функцию распределения F(x). И, наоборот, по известной функции распределения можно восстановить плотность распределения:
    Значит, наряду с функцией распределения, плотность распределения вероятностей непрерывной случайной величины задает ее закон распределения.
    Свойства плотности распределения вероятностей непрерывной случайной величины:
    1. Плотность распределения – неотрицательная функция: p(t
    Геометрически это означает, что график плотности распределения расположен либо выше оси Ох, либо на этой оси.
    2.
    =1.
    Учитывая, что F
    =1. Т.е. площадь между графиком плотности распределения вероятностей и осью абсцисс равна единице.
    Эти два свойства являются характеристическими для плотности распределения вероятностей. Доказывается и обратное утверждение:
    Любая неотрицательная функция p(t), для которой
    =1, является плотностью распределения вероятностей некоторой непрерывно распределенной случайной величины.
    Общий вид графика функции плотности распределения вероятностей непрерывной случайной величины приведен на рис. 6.7.
    Рис. 6.7
    Зная плотность распределения, можно вычислить вероятность попадания значений непрерывной случайной величины в заданный интервал.

    Вероятность того, что непрерывная случайная величина примет значения, принадлежащие интервалу (a, b), равна определенному интервалу от плотности распределения, взятому в пределах от а до b:
    P(а b)=
    Действительно, P(а b)=F(b) – F(a)=

    =
    по одному из свойств определенного интеграла.
    Из вышеприведенного утверждения можно сделать вывод, что вероятность того, что непрерывная случайная величина Х примет одно определенное значение, равна нулю.
    Отсюда,
    P(a
    b)=P(a b)=F(b) – F(a).
    Геометрически вероятность попадания значений непрерывной случайной величины в интервал (a, b) может быть рассмотрена как площадь фигуры, ограниченной осью Ох, графиком плотности распределения p(t) и прямыми х=a и х=b (рис. 6.8).
    Рис. 6.8
    Определения числовых характеристик случайной величины, рассмотренные в параграфе 6.2, можно распространить на случай непрерывной величины.
    Математическим ожиданием непрерывной случайной величины называется несобственный интеграл
    М[X] =
    Если возможные значения случайной величины принадлежат отрезку [a,b], то
    М[X]=
    Используя определение дисперсии (6.4) для случая непрерывной случайной величины, можно получить следующую формулу для вычисления дисперсии

    D[X] =
    Если возможные ненулевые значения случайной величины принадлежат отрезку
    [a, b], то
    D[X] =
    Более удобные формулы для вычисления дисперсии таковы:
    D[X] =
    , если функция p(t) отлична от 0 на всей числовой оси;
    D[X] =
    (6.8) если возможные ненулевые значения случайной величины принадлежат отрезку
    [a,b].
    Среднее квадратическое отклонение непрерывной случайной величины определяется также, как и для случая дискретной случайной величины:
    Пример. Плотность вероятности непрерывной случайной величины Х равна
    Найти функцию распределения F(X), математическое ожидание, дисперсию и среднее квадратическое отклонение величины Х.
    Построим функцию распределения случайной величины Х, используя формулу (6.7).
    При х
    =0. х
    0+
    При х>2,
    0+
    2–1=1.

    Значит,
    Математическое ожидание случайной величины Х равно:
    Дисперсию величины Х находим по формуле (6.8):
    Среднее квадратическое отклонение величины Х равно:
    Тема 6. Системы случайных величин
    Существенный интерес в математической статистике представляет рассмотрение системы двух и более случайных величин и их статистическая взаимосвязь друг с другом.
    По аналогии с рядом распределения одной дискретной величины Х для двух дискретных случайных величин X и Y строится матрица распределения – прямоугольная таблица, в которой записаны все вероятности pi j = P{ X = xi , Y = yj } , i = 1, … , n; j =
    1,…, m.
    События (или опыты) называются независимыми, если вероятность появления
    (исхода) каждого из них не зависит от того, какие события (исходы) имели место в других случаях (опытах).
    Две случайные величины X и Y называются независимыми, если независимы все связанные с ними события: например, {X < а} и {Y В терминах законов распределения справедливо также следующее определение: две случайные величины X и Y называютсянезависимыми, если закон распределения каждой из них не зависит от принятого значения другой.
    Совместной функцией распределения системы двух случайных величин ( X, Y ) называется вероятность совместного выполнения неравенств X < х и Y < у :
    (34)

    Событие означает произведение (совместное выполнение) событий
    {X < х} и
    {Y < у}.
    Геометрической интерпретацией совместной функции распределения F ( x, y) является вероятность попадания случайной точки ( X, Y ) на плоскости внутрь бесконечного квадранта с вершиной в точке (x, y) (заштрихованная область на рис. 8).
    Рис. 8. Геометрическая интерпретация совместной функции распределения F(x, y)
    Основные свойства совместной функции распределения:
    (35)
    Здесь
    Система двух случайных величин ( X, Y ) называется непрерывной, если ее совместная функция распределения F (x, y) – непрерывная функция, дифференцируемая по каждому аргументу, у которой существует вторая смешанная частная производная
    . Обе случайные величины X и Y – непрерывны. Тогда функция
    (36)
    называется совместной плотностью распределения системы двух случайных величин
    ( X, Y ).
    Основные свойства совместной плотности распределения:
    (37)
    В качестве числовых характеристик системы двух случайных величин X и Y обычно рассматриваются начальные и центральные моменты различных порядков. Порядком момента называется сумма его индексов k + s.
    Начальным моментом порядка k + s системы двух случайных величин X и Y называется математическое ожидание произведения X kна Y s :
    (38)
    Центральным моментом порядка k + s системы двух случайных величин ( X, Y ) называется математическое ожидание произведения (X–mx )k на (Y–my )s :
    (39) где mx = М (Х), my = М (Y).
    Для системы дискретных случайных величин X и Y :
    (40)
    (41) где рi j = Р { Х =xi , Y = yj }.
    Для системы непрерывных случайных величин X и Y :
    (42)
    (43) где f ( x, y ) – совместная плотность распределения случайных величин X и Y.
    В инженерных приложениях математической статистики чаще всего используются моменты первого и второго порядков.
    Начальные моменты первого порядка
    (44) являются математическими ожиданиями случайных величин X и Y.

    Центральные моменты первого порядка всегда равны нулю:
    (45)
    Начальные моменты второго порядка:
    (46)
    Центральные моменты второго порядка:
    (47)
    Здесь Dx , Dy – дисперсии случайных величин X и Y.
    Центральный момент второго порядка называется ковариацией случайных величин X и Y. Обозначим его
    :
    . (48)
    Из определения ковариации (48) следует:
    (49)
    Дисперсия случайной величины является по существу частным случаем ковариации:
    (50)
    По определению ковариации (48) получим:
    (51)
    Ковариация двух случайных величин X и Y характеризует степень их зависимости и меру рассеивания вокруг точки
    . Часто бывает удобно выразить ковариацию в виде:
    (52)
    Выражение (52) вытекает из определения ковариации (48).

    Размерность ковариации равна произведению размерностей случайных величин X и Y.
    Безразмерная величина, характеризующая только зависимость случайных величин X и Y, а не разброс:
    (53) называется коэффициентом корреляции случайных величин X и Y. Этот параметр характеризует степень линейной зависимости случайных величин X и Y. Для любых двух случайных величин X и Y коэффициент корреляции
    Если
    , то линейная зависимость между X и Y возрастающая, если
    , то линейная зависимость междуX и Y убывающая, при линейной зависимости между X и Y нет.
    При случайные величины X и Y называются коррелированными, при
    – некоррелированными. Отсутствие линейной корреляции не означает отсутствие любой другой зависимости между X и Y.
    Если имеет место жесткая линейная зависимость Y = aX+ b , то при а > 0 и при а < 0.
    1   2   3   4   5   6


    написать администратору сайта