лекции по менеджменту. лекции. Курс лекций по дисциплине Моделирование систем предназначено для студентов, обучающихся по направлениям подготовки бакалавриата 09. 03. 01
Скачать 1.74 Mb.
|
Экспоненциальная модель Выход системы описывается выражением: 0 1 1 2 2 m m B B X B X B X Y e (6.22) Прологарифмируем левую и правую части уравнения: 0 1 1 2 2 ln( ) m m Y B B X B X B X (6.23) 71 Выполним замену W = ln(Y) и получим линейную модель: 0 1 1 2 2 m m W B B X B X B X (6.24) Контрольные вопросы 1. Перечислите виды физических моделей систем. 2. Что такое математическая и имитационная модели? 3. Опишите алгоритм использования метода Монте-Карло? 4. Как выполняется планирование и проведение эксперимента? 5. В чем разница между пассивным активным экспериментом? 6. Дайте классификацию экспериментов. 7. Как выполнятся линейная регрессия для систем с одним вхо- дом и выходом? 8. Как выполняется линейная регрессия для систем с нелиней- ным выходом? ЛЕКЦИЯ №7. СЛУЧАЙНАЯ ВЕЛИЧИНА Понятие случайной величины, характеристики случайной величины, опи- сательная статистика, статистические параметры, законы распределения случайной величины. Случайная величина (СВ) – это численная характеристика, из- меряемая по ходу опыта и зависящая от случайного исхода. Каждая СВ задает распределение вероятностей. Вероятность показывает степень возможности осуществления данного события, явления, ре- зультата. Вероятность невозможного события равна нулю, достовер- ного события – единице (100%). Вероятность любого события лежит в пределах от 0 до 1 – в зависимости от того, насколько это событие случайно. Потребность в понятии вероятности и ее вычисления возникнет, только тогда, когда событие наблюдается не каждый раз, либо собы- тие может произойти, а может не произойти. И в том и другом случае полезно использовать понятие частоты появления события ( ) n f A m (7.1) Это отношение числа случаев появления n (благоприятных ис- ходов) события к общему числу наблюдений m. Существует два вида выборок СВ: зависимые и независимые. Если результаты измерения некоторого свойства у объектов первой выборки не оказывают влияния на результаты измерения этого свойства у объектов второй выборки, то такие выборки считаются независимыми. В тех случаях, когда результаты одной выборки влияют на ре- зультаты другой выборки, выборки считают зависимыми. Событие А 72 не зависит от события В, если вероятность события А не зависит от того произошло или нет событие В. События А и В независимы, если ( ) ( ) ( ). P AB P A P B (7.2) Случайная величина бывает дискретной (можно пронумеровать ее возможные значения), например, выпадение игральной кости = 4, 6, 2, 1, 5, 3. Непрерывной (ее функция распределения F(x) – непре- рывна), например, время службы осветительной лампы. Случайная величина имеет две характеристики. Математическое ожидание – числовая характеристика СВ, при- ближенно равная среднему значению СВ 1 1 2 2 ( ) , n n M x x p x p x p (7.3) где p i – вероятность появления значения случайной величины x i Дисперсия случайной величины 2 2 2 1 1 2 2 ( ) ( ) ( ) ( ) , n n D x p x x p x x p x x (7.4) где x – арифметическое среднее значение СВ. Для непрерывно распределенной случайной величины X боль- шую роль в ее описании играет функция, обозначаемая обычно p(x), называемая плотностью вероятности (или дифференциальным зако- ном распределения). Содержательный смысл р(х)заключается в том, что для всякой точки x 0 [a; b ] и взятого около нее малого приращения dx произведе- ние p(x 0 )dx является вероятностью того, что случайная переменная примет значение, заключенное между х 0 и x 0 + dx. Поскольку какое-нибудь значение из [а; b]случайная величина примет наверняка, то ( ) 1. b a p x dx (7.5) Это условие нормировки для р(х). Оценивая выборку, следует предварительно сделать заключе- ние о том, какой вид имеет функция распределения величины X, либо каковы значения наиболее часто используемых параметров распре- деления (таких, как математическое ожидание, дисперсия). Правдоподобную гипотезу о форме функции p(x) (плотности ве- роятности) можно попытаться сформулировать по столбчатой диа- грамме (гистограмме), построенной с помощью случайной выборки. Допустим, что случайная величина X ограничена отрезком [a; b] (если a, bзаранее неизвестны, то в качестве них можно принять наи- меньшее и наибольшее из выборочных значений х).Разделим отрезок [a; b] на m равных частей и подсчитаем n i – число членов выборки, по- падающих в i-й участок (при этом m берется таким, чтобы в каждую часть попало много членов выборки, т.е. заведомо m много меньше n). На рис. 7.1 показан типичный вид гистограмммы. 73 Рис. 7.1. Гистограмма b a h m Описательная статистика Раздел математической статистики предназначен для представ- ления данных в удобном виде и описания информации в терминах математической статистики и теории вероятностей. Основной величи- ной в статистических измерениях является единица статистической совокупности. Единица статистической совокупности характеризуется набором признаков или параметров. Значения каждого параметра или признака могут быть различ- ными и в целом образовывать ряд случайных значений x 1 , х 2 , …, х n Переменная – это параметр измерения, который можно контро- лировать или которым можно манипулировать в исследовании. Относительное значение параметра – это отношение числа объектов, имеющих этот показатель, к величине выборки. Выражается относительным числом или в процентах (процентное значение). Удельное значение признака – это расчетная величина, показы- вающая количество объектов с данным показателем, которое содер- жалось бы в условной выборке, состоящей из 10, или 100, 1000 и т.д. объектов. Рассмотрим показатели описательной статистики, используемые для оценки результатов эксперимента. Минимальное и максимальное значения переменной. Среднее (оценка среднего, выборочное среднее) – сумма значе- ний переменной, деленная на n (число значений переменной). 1 1 2 N i i N x x x x x N N (7.6) 74 Выборочное среднее. Это значение случайной величины сумма отклонений наблюдений от которой равна 0. Формально это записы- вается следующим образом: 1 2 ( ) ( ) ... ( ) 0. n x x x x x x (7.7) Для оценки степени разброса (отклонения) какого-то показателя от его среднего значения, наряду с максимальным и минимальным значе- ниями, используются понятия дисперсии и стандартного отклонения. Дисперсия выборки или выборочная дисперсия – это мера из- менчивости переменной. Термин впервые был введен Фишером в 1918 году. Выборочная дисперсия вычисляется по формуле: 2 2 1 ( ) N i i x x N (7.8) Дисперсия меняется от нуля до бесконечности. Крайнее значе- ние 0 означает отсутствие изменчивости, когда значения переменной постоянны. Стандартное отклонение, среднее квадратическое отклонение вычисляется как корень квадратный из дисперсии и обозначается . Чем выше дисперсия или стандартное отклонение, тем сильнее разбросаны значения переменной относительно среднего. Медиана разбивает выборку на две равные части. Половина зна- чений переменной лежит ниже медианы, половина значений лежит вы- ше. Медиана дает общее представление о том, где сосредоточены зна- чения переменной, иными словами, где находится ее центр. Для нахож- дения медианы измерения записывают в ряд по возрастанию значений. Если число измерений N нечетное, то медиана численно равна значе- нию этого ряда, стоящему точно в середине, или на (N + 1)/2 месте. Например, медиана пяти измерений: 10, 17, 21, 24, 25 – равна 21. Это значение, стоящее на третьем месте (N + 1)/2 = (5 + 1)/2 = 3. Если число измерений четное, то медиана численно равна сред- нему арифметическому значений ряда, стоящих в середине, или на N /2 и N/2 + 1 местах. Например, медиана восьми измерений: 5, 5, 6, 7, 8, 8, 9, 9 – равна 7,5 (7 + 8)/2 = 7,5. Это среднее ариф- метическое значение ряда, стоящее на четвертом и пятом местах ря- да. Так как N/2 = 8/2 = 4 и N/2 + 1 = 4 + 1 = 5. Квартили (от слова кварта – четверть) представляют собой зна- чения, которые делят две половины выборки разбитые медианой еще раз пополам. Различают верхнюю квартиль, которая больше медианы и делит пополам верхнюю часть выборки (значения переменной больше ме- 75 дианы), и нижнюю квартиль, которая меньше медианы и делит попо- лам нижнюю часть выборки. Нижнюю квартиль часто обозначают символом 25%, это означа- ет, что 25% значений переменной меньше нижней квартили. Верхнюю квартиль часто обозначают символом 75%, это озна- чает, что 75% значений переменной меньше верхней квартили. Мода представляет собой максимально часто встречающееся значение переменной (иными словами, наиболее «модное» значение переменной). Редкая совокупность имеет единственную моду. (На- пример: 2, 6, 6, 8, 9, 9, 9, 10 – мода = 9). Если распределение имеет несколько мод, то говорят, что оно мульти модально или много модально (имеет два или более «пика»). Асимметрия – это свойство распределения выборки, которое ха- рактеризует несимметричность распределения СВ. На практике сим- метричные распределения встречаются редко и чтобы выявить и оце- нить степень асимметрии, вводят следующую меру: 3 33 3 ( ) / i x x n A (7.9) Асимметрия бывает положительной и отрицательной. Положи- тельная асимметрия сдвигает влево кривую распределения относи- тельно математического ожидания, а отрицательная – вправо. Эксцесс – это мера крутости кривой распределения. Эксцесс равен: 4 4 ( ) / 3. i x x x x n E (7.10) Виды распределений, дискретные законы распределения Пусть некоторая СВ является дискретной, т.е. может принимать лишь фиксированные значения x i . В этом случае ряд значений веро- ятностей p(x i ) для всех (i = 1…n) допустимых значений этой величины называют её законом распределения. Биномиальное распределение (распределение Бернулли). Воз- никает в тех случаях, когда ставится вопрос: сколько раз происходит некоторое событие в серии из определенного числа независимых на- блюдений (опытов), выполняемых в одинаковых условиях. Пусть известна величина p – вероятность того, что вошедший в магазин посетитель окажется покупателем, тогда (1 – p) = q – ве- роятность того, что вошедший в магазин посетитель не окажется по- купателем. Если x – число покупателей из общего числа n посетителей, то ве- роятность того, что среди n посетителей оказалось k покупателей равна: ( ) ! , !( )! k n k k k n k X k n n P p q C p q k n k (7.11) где k = 0, 1, … n. 76 Распределение Пуассона Распределение Пуассона играет важную роль в ряде вопросов физики, теории связи, теории надежности, теории массового обслужи- вания где в течение определенного времени может происходить слу- чайное число каких-то событий (радиоактивных распадов, телефон- ных вызовов, отказов оборудования, несчастный случаях и т.п.). Случайное число событий, происшедших за время от 0 до Т, распределено по закону Пуассона с параметром = аТ, где а > 0 – па- раметр задачи, отражающий среднюю частоту событий [1, 5, 11]. ( ) ! k Z k P e k (7.12) Вероятность k событий в течение большого интервала времени. Непрерывные законы распределения Нормальное распределение занимает центральное место в тео- рии и практике вероятностно-статистических исследований. Непре- рывная случайная величина Х называется распределенной по нор- мальному закону, если ее плотность распределения равна: 2 1 1 ( ) exp ( ) , 2 2 , 0, x p x x (7.13) Рис. 7.2. Плотность вероятности для нормального распределения; S 1 , S 2 , S 3 – стандартное отклонение Математическое ожидание случайной величины, s = стандарт- ное квадратичное отклонение. Нормальное распределение с пара- метрами = 0 и = 1 называется нормированным 2 2 1 ( ) 2 x p x e (7.14) 77 Равномерное распределение Плотность вероятности равномерного распределения равна: 1 ( ) p x N (7.15) Равномерное распределение вероятностей является простей- шим и может быть как дискретным, так и непрерывным. Дискретное равномерное распределение – это такое распределение, для которого вероятность каждого из значений СВ одна и та же. Распределение вероятностей непрерывной CВ Х, принимающие все свои значения из отрезка [а; b] называется равномерным, если ее плотность вероятности на этом отрезке постоянна, а вне его равна нулю (рис. 7.3): 0 при , 1 ( ) при , 0 при x a p x a x b b a x b (7.16) Рис. 7.3. Плотность вероятности равномерного распределения Равномерно распределенное случайное число можно получить, если использовать стандартный генератор случайных чисел ЭВМ. Для генерации числа используется формула: 2 1 1 ( 1) p n n r n (7.17) Здесь n 2 > n 1 границы диапазона генерации случайного числа r – равномерно-распределенное случайное число, полученное от ГСЧ [3, 4]. Генерация случайного числа в коде Java: double n2=20,n1=5; double r=(n2-n1+1)*Math.random()+n1; 78 Контрольные вопросы 1. Охарактеризуйте понятие случайной величины. 2. В чем разница между вероятностью и частотой появления события? 3. Что такое математическое ожидание и дисперсия случайной величины? 4. Что такое плотность распределения случайной величины? 5. Как получить закон распределения случайной величины? 6. Перечислите параметры описательной статистики. 7. Приведите примеры законов дискретных законов распределе- ния случайной величины. 8. Приведите примеры непрерывных законов распределения слу- чайной величины. 9. Как выполняется генерация равномерно случайного числа пу- тем использования встроенного генератора случайных чисел ЭВМ? ЛЕКЦИЯ №8. ПРОВЕРКА СТАТИСТИЧЕСКОЙ ГИПОТЕЗЫ Понятие статистической гипотезы, нулевая гипотеза, ошибки при про- верке гипотезы, методы проверки статистической гипотезы. Статистическая гипотеза – это предположение о свойствах слу- чайных величин или событий, которое нужно проверить по имеющим- ся данным. Нулевая гипотеза – это основное проверяемое предположение, которое обычно формулируется как отсутствие различий, отсутствие влияние фактора, отсутствие эффекта, равенство нулю значений вы- борочных характеристик. Например: имеется механическое устройство, выходное звено которого совершает вращательное движение. Гипотеза: увеличение скорости вращения выходного звена не влияет на устойчивость процессов внутри механизма. Другое проверяемое предположение (не всегда строго противо- положное или обратное первому) называется конкурирующей или альтернативной гипотезой. Нулевая гипотеза обозначается Н 0 , а альтернативная как Н 1 Выдвинутая гипотеза может быть правильной или неправильной, по- этому возникает необходимость проверить ее. Так как проверку про- изводят статистическими методами, то данная проверка называется статистической. При проверке статистических гипотез возможны ошибки (оши- бочные суждения) двух видов: H 0 = TRUE; H 1 = FALSE. 79 Можно отвергнуть нулевую гипотезу, когда она на самом деле верна (так называемая ошибка первого рода); Если имеет место: H 0 = FALSE; H 1 = TRUE. Можно принять нулевую гипотезу, когда она на самом деле не верна (так называемая ошибка второго рода). Ошибка, состоящая в принятии нулевой гипотезы, когда она ложна, качественно отличается от ошибки, состоящей в отвержении гипотезы, когда она истинна. Эта разница очень существенна вслед- ствие того, что различна значимость этих ошибок. Допустимая вероятность ошибки первого рода (Р кр ) может быть равна 5% или 1% (0.05 или 0.01). Уровень значимости – это вероят- ность ошибки первого рода при принятии решения (вероятность оши- бочного отклонения нулевой гипотезы). Альтернативные гипотезы при- нимаются тогда и только тогда, когда опровергается нулевая гипотеза. Риск ошибки отвергнуть нулевую гипотезу и принять альтерна- тивную не превышает одного из трех принятых уровней значимости статистического вывода: первый уровень – 5% (р = 5%), где допускается риск ошибки в выводе в пяти случаях из ста теоретически возможных таких же экс- периментов; второй уровень – 1%, т.е. соответственно допускается риск ошибиться только в одном случае из ста; третий уровень – 0,1%, т.е. допускается риск ошибиться толь- ко в одном случае из тысячи. |