лаб. Теория вероятностей и математическая статистика (1). Методические указания по их выполнению, а также программа курса и необходимый для решения задач теоретический материал
Скачать 1.1 Mb.
|
§ 4. Нормальное распределение
О п р е д е л е н и е. Непрерывная случайная величина, имеющая в качестве плотности распределения функцию , называется нормированной нормальной случайной величиной. Функция распределения нормированной нормальной случайной величины, , является первообразной для плотности распределения . Наряду с F(x), первообразной для φ (x) является интеграл с переменным верхним пределом . Этот интеграл является функцией аргумента x, обозначается через φ (x) и называется функцией Лапласа.2 Так как , F(x) = 0,5 + φ (x). При помощи функции Лапласа можно найти вероятность попадания нормированной нормальной случайной величины XНН (так мы будем обозначать нормированную нормальную случайную величину)в заданный интервал . . Можно показать, что функция Лапласа нечётная, то есть φ (–x)= – φ (x). Ясно также, что φ (+∞) = = 0,5, а φ (– ∞) = – φ (+∞) = – 0,5. Вычисления показывают, что математическое ожидание нормированной нормальной случайной величины равно нулю, а среднее квадратическое отклонение – единице. Нормированное нормальное распределение является частным случаем нормального распределения общего вида, которое определяется как распределение непрерывной случайной величины, имеющей в качестве плотности распределения функцию (a и σ – числа, σ > 0). Будем называть такую случайную величину нормальной и обозначать XН. M[XН] = a, σ[XН] = σ. Соответствующие вычисления можно найти в учебниках по теории вероятностей. Выведем формулу для вычисления вероятности попадания нормальной случайной величины в интервал (, ). Чтобы вычислить этот интеграл, сделаем замену переменных , при этом . Пределы интегрирования также изменятся. Получим , равный (по формуле Ньютона-Лейбница) разности . В итоге получаем формулу . Приведём пример применения этой формулы. . По таблицам приближённых значений функции Лапласа . Полученный результат часто называют правилом «трёх сигма»: вероятность того, что нормальная случайная величина отклонится от своего математического ожидания меньше, чем на три средних квадратических отклонения, практически равна единице.
§ 5. Системы двух дискретных случайных величин Пусть при одном и том же испытании рассматриваются две случайные величины (X, Y) и Y. Тогда каждому элементарному исходу испытания соответствует пара значений (x, y). В этом случае говорят, что задана двумерная случайная величина (X, Y) или, что то же самое, система случайных величин X и Y.
, …, ,…, – значения случайной величины X , а , …, ,…, –значения случайной величины Y, – вероятность того, что X = , Y= . Как и в случае одномерной случайной величины, сум-ма всех вероятностей равна единице, то есть . Если вероятности просуммировать по строкам и столбцам, соответственно, получатся вероятности, с которыми случайные величины X и Y принимают свои значения. Действительно, событие складывается из попарно несовместных событий (j=1,2,…, m), поэтому . Обозначая через , будем иметь . Так же получаем, что , где . Формулы для вычисления математических ожиданий X и Y приобретают вид: , . (Если X и Y– компоненты двумерной случайной величины (X, Y), то их математические ожидания обозначаются обычно не и , а и . Аналогичный смысл имеют обозначения , , , .) Основными числовыми характеристиками двумерной случайной величины (X, Y) являются смешанный момент , корреляционный момент и коэффициент корреляции r. Смешанный момент определяется равенством . Поскольку – одно из значений случайной величины XY, а – вероятность, с которой это значение принимается, то смешанный момент совпадает с математическим ожиданием произведения случайных величин X и Y, то есть . Корреляционный момент двумерной случайной величины определяется равенством . Дискретные случайные величины X и Y называются независимыми, если P(X= a, Y= b) = P(X= a)P(Y=b). Если X и Y– компоненты двумерной случайной величины (X, Y), условие независимости приобретает вид: , или . Математическое ожидание независимых случайных величин равно произведению математических ожиданий. Действительно, . Очевидно, что корреляционный момент независимых случайных величин равен нулю. Коэффициент корреляции определяется равенством . Как и корреляционный момент, коэффициент корреляции независимых случайных величин равен нулю. Доказано, что коэффициент корреляции обладает свойством . Если коэффициент корреляции равен нулю, случайные величины называются некоррелированными. Ясно, что независимые случайные величины являются некоррелированными. Обратное неверно, из некоррелированности независимость не следует. Говорят, что случайные величины X и Y связаны линейной зависимостью, если Y= kX+ b, где kи b – некоторые числа, причём . Можно доказать, что если случайные величины X и Y связаны линейной зависимостью, то . Верно и обратное, если абсолютная величина коэффициента корреляции равна единице, случайные величины связаны линейной зависимостью. § 6. Линейное корреляционное уравнение Пусть задана дискретная двумерная случайная величина X и Y. Если коэффициент корреляции по абсолютной величине отличен от единицы, то Yне связан сX линейной зависимостью. Возникает вопрос, при каких значениях коэффициентов kи b случайная величина наилучшим образом приближает случайную величину Y. Для ответа на этот вопрос воспользуемся методом наименьших квадратов, состоящим в том, что наилучшим приближением случайной величины Y считается такое , что математическое ожидание квадрата их разности минимально. Найдём математическое ожидание квадрата разности Y и (так как зависит от коэффициентов kи b, математическое ожидание также будет функцией аргументов kиb). M[ ( – Y)2] = . Напомним, что необходимое условие экстремума функции двух переменных состоит в том, что в точке экстремума частные производные обращаются в 0. В нашей ситуации это означает, что . Вычислим частные производные функции и приравняем их к 0. (Пояснение: .) Получаем систему уравнений . Главный определитель . Решаем эту систему по формулам Крамера: и, значит, ; , . Подставим найденные значения kи b в уравнение . Учитывая, что , после преобразований получим уравнение, , которое можно записать в более удобной для запоминания форме, а именно: . § 7. Статистический ряд Пусть проведено n испытаний (наблюдений), в результате которых случайная величина приняла n значений, называемых обычно наблюдёнными значениями. Перечень этих значений (среди них могут быть равные) называют выборкой, число n – объёмом выборки. Сама по себе выборка, даже достаточно большого объёма, не даёт представления о характере распределения случайной величины. Чтобы закономерности распределения исследуемой случайной величины проявились, наблюдённые значения случайной величины сводят в интервалы. Как показывает практика обработки статистических данных, величину интервалов следует выбирать так, чтобы их число не более чем на 2-3 единицы отличалось от 12. Пусть Xmaxи Xmin – наибольшее и наименьшее значения выборки. Разделив разность между ними на 12 и округлив результат, получим величину интервала с, то есть . В качестве начала первого интервала удобно взять округлённое в меньшую сторону значение Xmin. Число интервалов k должно быть таким, чтобы Xmax, попало в последний, k-й, интервал. Обозначим середины интервалов через ,…, ,…, и будем называть их разрядами. Совокупность k примыкающих друг к другу интервалов длины с назовём разрядной сеткой. Наблюдённые значения, попавшие в полуоткрытый интервал , отнесём к разряду , а их число обозначим через и назовём i-й разрядной частотой или частотой i-го разряда (i= 1,2,…k). Сумма разрядных частот совпадает с объёмом выборки, .
По статистическому ряду строится многоугольник частот – ломаная, соединяющая точки ( , ), i= 1,2,…k. Многоугольник частот даёт первоначальное представление о форме кривой распределения (графика плотности распределения) случайной величины X. |