Главная страница
Навигация по странице:

  • 3 семестр ПО ДИСЦИПЛИНЕ

  • Выполнил(а): Бойко Екатерина Юрьевна Менеджмент,МН-218(2) Проверил(а)

  • Цель

  • p

  • X(w) < x

  • (X

  • Математи́ческое ожида́ние

  • Критерий согласия Пирсона

  • Критерий Колмогорова Критерий согласия Колмогорова

  • Точность статистической оценки.

  • Бойко передел математика. Определение законов распределения случайных величин на основе опытных данных


    Скачать 37.64 Kb.
    НазваниеОпределение законов распределения случайных величин на основе опытных данных
    Дата04.03.2023
    Размер37.64 Kb.
    Формат файлаdocx
    Имя файлаБойко передел математика.docx
    ТипРеферат
    #968537

    Автономная некоммерческая организация высшего профессионального образования

    «Сибирский институт бизнеса и информационных технологий»
    3 семестр

    ПО ДИСЦИПЛИНЕ: Математика

    Реферат

    НА ТЕМУ: «Определение законов распределения случайных величин на основе опытных данных»

    Выполнил(а):

    Бойко Екатерина Юрьевна

    Менеджмент,МН-218(2)

    Проверил(а):




    (дата)


    Омск 2020 г.

    Оглавление


    Введение 3

    Виды и примеры случайных величин 5

    Математическое ожидание случайной величины. 6

    Основные задачи Математической статистики 7

    Критерии согласия. 9

    Заключение 11

    Список литературы 12

    Введение


    Цель: С помощью критерия согласия проверить согласованность статистического и выбранного теоретического распределения.

    Задачи: 1.Определение закона распределения случайной величины.

    2. Проверки правдоподобия гипотез.

    3. Рассмотреть статическую функцию распределения и статический ряд.

    Определение случайной величины

    Случайная величина - это фундаментальное понятие теории вероятностей и математической статистики.


     pi = P{X = xi}
    Каждый автор по-своему формулирует понятие случайной величины. Е.С. Вентцель, например, определяет случайную величину, как величину, которая в результате опыта может принять то или иное значение, причем неизвестно заранее, какое именно. Случайную величину на практике обычно обозначают заглавными буквами, например: X, Y, Z, тогда, как возможные значения самой величины определяются строчными знаками: x, y, z. Х называется действительная функция X = X(w), определенная на множестве элементарных исходов W, такая, что для любого действительного x множество тех w I W, для которых X(w) < x, принадлежит полю событий W(W). СВ принято обозначать большими буквами латинского алфавита, а их возможные значения - соответствующими малыми буквами. Введение.
          Различают СВ дискретного типа (сокращенно СВДТ) и СВ непрерывного типа (сокращенно СВНТ). СВ называется СВДТ, если множество ее возможных значений конечно или счетно. Например, число бросаний монеты до появления герба или число выпавших очков при бросании игрального кубика. СВ называется СВНТ, если множество ее возможных значений заполняют интервал числовой оси. Например, время до отказа прибора (время “жизни” прибора) или погрешность измерения.
          Для полного задания СВ необходимо указать  множество ее возможных значений и определить некоторое соответствие между отдельными ее значениями xi(или некоторыми подмножествами) и вероятностями pi, с которыми эти значения (или подмножества) принимаются. Любое такое соответствие называется законом распределения СВ. Например, для СВДТ достаточно указать зависимость pi = P{X = xi} 

    Для СВНТ такие способы не годятся, поэтому  ставят в соответствие вероятности  не отдельные значения СВ, а множество  значений (X < x), где x - произвольное число. Этот способ годится для СВДТ и для СВНТ. [1]

      Каждая  случайная величина полностью определяется своей функцией распределения.
         В то же время при решении практических задач достаточно знать несколько  числовых параметров, которые позволяют  представить основные особенности  случайной величины в сжатой форме. К таким величинам относятся в первую очередь математическое ожидание и дисперсия.

    Виды и примеры случайных величин


    Случайной величиной называют величину, которая в результате испытания примет одно и только одно возможное значение,наперед не известное и зависящее от случайных причин, которые заранее не могут быть учтены.

    Различают два вида случайных величин: дискретные и непрерывные.

    К дискретным относятся те случайные величины, множество значений которых конечно или фиксировано. Примером дискретной случайной величины, можно считать количество попаданий в цель при заранее определенном числе выстрелов.

    Непрерывная случайная величина это такая величина, множество значений которой несчётно или бесконечно. В качестве примера для непрерывной случайной величины, можно взять количество кругов на воде, после попадания в нее камня, или расстояние, которое пролетит стрела, прежде чем упасть на землю.

    Все случайные величины, ко всему прочему, имеют еще одну важную характеристику - ряд допустимых значений, который, в свою очередь, может как ограниченным, так и неограниченным. Отсюда, имеем, в зависимости от числа допустимых значений, ограниченные случайные величины, ряд допустимых значений конечен или фиксирован, и неограниченные, количество допустимых значений которых бесконечно. Случайной дискретной величиной является величина, значения которой отделены одно от другого промежутками, в которых нет возможных значений этой величины. Случайная величина при этом принимает отдельные, изолированные возможные значения. Случайной непрерывной величиной является величина, которая может принять любое из значений некоторого промежутка. Здесь нельзя отделить одно возможное значение от другого промежутком, не содержащим воз­можных значений случайной величины. На практике в теории вероятностей и математической статистике, как правило, имеют дело только с непрерывными случайными величинами.

    Математическое ожидание случайной величины.


    Математи́ческое ожида́ние — одно из важнейших понятий в теории вероятностей, означающее среднее (взвешенное по вероятностям возможных значений) значение случайной величины. В случае непрерывной случайной величины подразумевается взвешивание по плотности распределения Математическое ожидание случайного вектора равно вектору, компоненты которого равны математическим ожиданиям компонент случайного вектора.

    Математическое ожидание - число, вокруг которого сосредоточены значения случайной величины. Математическое ожидание случайной величины x обозначается Mx . Математическое ожидание дискретной случайной величины x , имеющей распределение называется величина , если число значений случайной величины конечно. Если число значений случайной величины счетно, то . При этом, если ряд в правой части равенства расходится, то говорят, что случайная величина x не имеет математического ожидания. Математическое ожидание непрерывной случайной величины с плотностью вероятностей px (x) вычисляется по формуле . При этом, если интеграл в правой части равенства расходится, то говорят, что случайная величина x не имеет математического ожидания.

    Основные свойства математического ожидания:

    -математическое ожидание константы равно этой константе, Mc=c ; -математическое ожидание

    - линейный функционал на пространстве случайных величин, т.е. для любых двух случайных величин x , h и произвольных постоянных a и b справедливо: M(ax + bh ) = a M(x )+ b M(h );

    -математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий, т.е. M(x h ) = M(x )M(h ). Математическое ожидание суммы таких случайных величин равно np, где n — количество таких случайных величин. Некоторые случайные величины не имеют математического ожидания, например, случайные величины, имеющие распределение Коши.[2,3]

    Основные задачи Математической статистики


    Математические законы теории вероятностей не являются беспредметными абстракциями, лишенными физического содержания; они представляют собой математическое выражение реальных закономер­ностей, фактически существующих в массовых случайных явлениях природы.

    До сих пор, говоря о законах распределения случайных величин, мы не затрагивали вопроса о том, откуда берутся, на каком осно­вании устанавливаются эти законы распределения. Ответ на вопрос вполне определенен — в основе всех этих характеристик лежит опыт; каждое исследование случайных явлений, выполняемое методами тео­рии вероятностей, прямо или косвенно опирается на эксперименталь­ные данные. Оперируя такими понятиями, как события и их вероят­ности, случайные величины, их законы распределения и числовые характеристики, теория вероятностей дает возможность теоретиче­ским путем определять вероятности одних событий через вероятности других, законы распределения и числовые характеристики одних случайных величин через законы распределения и числовые характе­ристики других. Такие косвенные методы позволяют значительно экономить время и средства, затрачиваемые на эксперимент, но отнюдь не исключают самого эксперимента. Разработка методов регистрации, описания и анализа статисти­ческих экспериментальных данных, получаемых в результате наблю­дения массовых случайных явлений, составляет предмет специальной науки — математической статистики.

    Все задачи математической статистики касаются вопросов обра­ботки наблюдений над массовыми случайными явлениями, но в зави­симости от характера решаемого практического вопроса и от объема

    имеющегося экспериментального материала эти задачи могут прини­мать ту или иную форму.[3]

    1Задача определения закона распределения

    При обработке обширных по своему объему статистических данных часто возникает вопрос об" определении законов распределения тех или иных случайных величин. Теоретически при достаточном количестве опытов свойственные этим случайным величинам закономерности будут осуществляться сколь угодно точно.  к методике обра­ботки экспериментальных данных следует предъявить такие требо­вания, чтобы она, по возможности, сохраняла типичные, характерные черты наблюдаемого явления и отбрасывала все несущественное, второстепенное, связанное с недостаточным объемом опытного мате­риала. В связи с этим возникает характерная для математической статистики задача сглаживания или выравнивания стати­стических данных, представления их в наиболее компактном виде с помощью простых аналитических зависимостей.

    2. Задача проверки правдоподобия гипотез

    Эта задача тесно связана с предыдущей; при решении такого рода задач мы обычно не располагаем настолько обширным стати­стическим материалом, чтобы выявляющиеся в нем статистические закономерности были в достаточной мере свободны от элементов случайности. Статистический материал может с большим или меньшим правдоподобием подтверждать или не подтверждать справедливость той или иной гипотезы. Например, может возникнуть такой вопрос: согласуются ли результаты эксперимента с гипотезой о том, что данная случайная величина подчинена закону распределения F(х)? Другой подобный вопрос: указывает ли наблюденная в опыте тенденция к зависимости между двумя случайными величинами на наличие действительной объективной зависимости между. ними или же она объясняется случайными причинами, связанными с недостаточным объемом наблюдений? Для решения подобных вопросов математическая статистика выработала ряд специальных приемов.[4]

    Критерии согласия.


    Критерий согласия Пирсона или критерий согласия (Хи-квадрат) — это непараметрический метод, который позволяет оценить значимость различий между фактическим (выявленным в результате исследования) количеством исходов или качественных характеристик выборки, попадающих в каждую категорию, и теоретическим количеством, которое можно ожидать в изучаемых группах при справедливости нулевой гипотезы. Выражаясь проще, метод позволяет оценить статистическую значимость различий двух или нескольких относительных показателей (частот, долей). Наиболее часто употребляемый критерий для проверки гипотезы о принадлежности наблюдаемой выборки объёмом некоторому теоретическому закону распределения . Критерий хи-квадрат для анализа таблиц сопряженности был разработан и предложен в 1900 году английским математиком, статистиком, биологом и философом, основателем математической статистики и одним из основоположников биометрики Карлом Пирсоном (1857-1936).

    Критерий Колмогорова

    Критерий согласия Колмогорова предназначен для проверки гипотезы о принадлежности выборки некоторому закону распределения, то есть проверки того, что эмпирическое распределение соответствует предполагаемой модели.

    Схема применения критерия А.Н. Колмогорова следующая: строятся статистическая функция распределения и предполагаемая теоретическая функция распределения , и определяется максимум модуля разности между ними. Это есть вероятность того, что (если величина действительно распределена по закону ) за счет чисто случайных причин максимальное расхождение между и будет не меньше, чем фактически наблюденное. Если вероятность весьма мала, гипотезу следует отвергнуть как неправдоподобную; при сравнительно больших ее можно считать совместимой с опытными данными.[4,5]

    Точность статистической оценки.

    Доверительная вероятность (надежность оценки), доверительный интервал Точечные оценки неизвестных значений математического ожидания и дисперсии имеют большое значение на первоначальном этапе обработки статических данных. Их недостаток в том, что неизвестно с кокой точностью они дают оцениваемый параметр. Пусть по данной выборке Х1, Х2, Х3, …, Хnполучены точные статистические оценки и , тогда числовые характеристики случайной величины Х будут приближенно равны . Для выборки небольшого объема вопрос поточности оценки существенен, т.к между mи , Dи будут недостаточно большие отклонения. Кроме того при решении практических задач требуется не только найти приближенные значения mи D, но и оценить их точность и надежность. Пусть ,т.е является точечной оценкой для m. Очевидно, что тем точнее определяет m, чем меньше модуль разности . Пусть , где ε>0, тогда, чем меньше ε, тем точнее оценка m. Таким образом, ε>0 характеризует точность оценки параметра. Таким образом, α- это доверительная вероятность или надежность оценки , значение α выбираются заранее в зависимости от решаемой задачи. Надежность α принято выбирать 0.9; 0.95; 0.99; 0.999. События с такой вероятностью являются практически достоверными. По заданной доверительной вероятности можно найти число ε>0 из . Тогда получим интервал ,который накрывает с вероятностью α истинное значение математического ожидания m, длина этого интервала равна 2ε. Этот интервал называется доверительным интервалом . А такой способ оценки неизвестного параметра m– интервальным .[6]

    Заключение


    Подводя итог можно сказать ,что статистический и теоретический законы распределения наблюдаемой случайной величины согласуются, следовательно, нормальное распределение может быть принято в качестве аппроксимирующего закона(приближенное значени).

    Методы, средства и законы теории вероятностей и математической статистики на протяжении всех этапов формирования дисциплины, являлись актуальным, какими и остаются вплоть до наших дней. Главный принцип методов, позволивший затронуть столь огромное количество отраслей и сфер знания - универсальность. Их с легкостью можно применять в любой дисциплине, и при этом они не теряют своей силы, остаются справедливыми.

    Но никогда еще теория вероятностей не была столь востребована, как сегодня. Связано это в первую очередь с невероятными темпами развития и роста вычислительной техники. С каждым годом она становится все сложнее, повышается быстродействие, количество производимых в секунду операций, и все это происходит не без участия математической статистики, которая, в свою помогает оптимизировать работу вычислительных систем и комплексов, повышает точность расчетов, осуществляет прогностическую функцию.

    Список литературы


    1. Вентцель, Е.С. Теория вероятностей/ Е.С. Вентцель - М.:Наука, 2018г.

    2. Смирнов, Н.В. Курс теории вероятностей и математической статистики для технических приложений./ Н.В. Смирнов, И.В. Дунин-Барковский - М.: «Наука», 2017г.

    3. Пустыльник, Е.И. Статистические методы анализа и обработка наблюдений: учебное пособие/ Е.И. Пустыльник. - М.:«Наука», 2018г.

    4. Джонсон, Н. Статистика и планирование в науке и технике./ Н. Джонсон, Ф. Лион - М.: «Мир», 2019г.

    5.Е.И. Гурский. Высшая математика. Основы теории вероятностей случайных процессов и математической статистики. Изд. МВИЗРУ ПВО, 2019.

    6. Бамина О.Э., Спирин А.А. Общая теория статистики. Изд-во Финансы и статистика, 2017. Ї 440 с.

    7. Вентцель Е.С. Теория вероятностей. – М.: 2019, 576 с.


    написать администратору сайта