Теория вероятности. Лекция 4 Характеристики двумерной случайной величины
Скачать 238.53 Kb.
|
Теория вероятностейЧисловые характеристикидвумерных и многомерных случайных величинЛЕКЦИЯ 4 Характеристики двумерной случайной величиныХарактеристики двумерной случайной величины (ξ, η) – это характеристики одномерных величин ξ и η, и характеристики связи между ними. Дальше мы будем рассматривать именно взаимную статистическую связь. Вначале рассмотрим линейную связь и ее характеристики – ковариацию, коэффициент корреляции, уравнение линейной регрессии, остаточную дисперсию. Анализ связей между признакамиАнализ связей между признаками – один из главных видов задач. Например, задачей может быть установление связи между затратами и прибылью или между закупочными и отпускными ценами. Для решения этой задачи используется корреляционный анализ. Термин «корреляция» означает взаимную статистическую связь. КовариацияОпределение. Ковариацией случайной величины (ξ, η) называется центральный смешанный момент второго порядка Kξ,η = cov(ξ, η) = M[(ξ – Mξ)∙(η – Mη)].Ковариация есть мера линейной зависимости между ξ, η.КовариацияВеличины ξ,η называютсянекоррелированными при cov(ξ, η) = 0, положительно коррелированными при cov(ξ, η) > 0, отрицательно коррелированными при cov(ξ, η) < 0. Для вычисления ковариации часто используют формулуcov(ξ, η) = M(ξ∙η) – M ξ∙M η.Коэффициент корреляцииОпределение. Коэффициентом корреляции между случайными величинами ξ, η называется число Свойства коэффициента корреляции1. │ρξη│≤ 1. 2. Если ξ,η независимы, то ρξη= 0. Если │ρξη│=1, то ξ, η линейно зависимы, то есть существуют такие a и b, чтоξ = aη + b.Смысл коэффициента корреляцииКоэффициент корреляции есть мера линейной зависимости между ξ, η. Его модуль указывает на силу линейной связи (чем ближе к 1, тем сильнее),а знак указывает на направление связи.Пример: ρ = +0,9Пример : ρ = +0,2Пример: ρ = – 0,6Линейная зависимостьПроблема: найти функцию, описывающую линейную зависимость (уравнение прямой). Определение. Уравнением линейной регрессии η на ξ называется уравнение параметры которого минимизируют остаточную дисперсиюСмысл. Уравнение линейной регрессии η на ξвыражает линейную зависимость η от ξ.Надо найти минимум остаточной дисперсии S2ост= M (η – ηˆ)2 Нахождение коэффициентов уравнения линейной регрессииS2ост = M[η – (aξ+b)]2 =M[(η – Mη) – a(ξ – Mξ) + (Mη – aMξ – b)]2 =M(η – Mη)2 + a2M(ξ – M ξ)2 + M[(Mη – aMξ – b)]2 –2aM[(η – Mη)(ξ – Mξ)] + 2M[(η – Mη)(Mη – aMξ – b)] – 2aM[(ξ – Mξ)(Mη – aMξ – b)].(Mη – aMξ – b) – постоянная величина, ее можно вынести за знак матожидания. M(η – Mη) = Mη – M[Mη] = Mη – Mη = 0, M(ξ – M ξ) = 0 Подставляя, получаем: S2ост = M(η – Mη)2 + a2M(ξ – M ξ)2 ++ (Mη – aMξ – b)2 – 2aM[(η – Mη)(ξ – Mξ)].Поскольку M(η – Mη)2 = Dη = σ2η, M(ξ – M ξ)2 = Dξ = σ2ξ,M[(ξ – Mξ)∙(η – Mη)] = cov(ξ,η) = ρσξση, тоS2ост = σ2η+ a2σ2ξ + (Mη – aMξ – b)2 – 2a ρσξση.S2ост – функция переменных a и b, надо найти min S2ост , то есть найти значенияa и b, при которых достигается минимум.Найдем производные от S2ост по a и b.S2ост = σ2η+ a2σ2ξ + (Mη – aMξ – b)2 – 2a ρσξση.(S2ост)'b= –2(Mη – aMξ – b) = 0(S2ост)'a = 2aσ2ξ – 2Mξ (Mη – aMξ – b) ––2ρσξση = 0Из первого уравнения находим:b = Mη – aMξ.Подставляя во второе, получаем:a = ρ∙ση/σξ.Подставимa = ρ∙ση/σξ, b = Mη – aMξВ уравнение ηˆ= aξ+b.Получим:ηˆ= ρ∙ση/σξ∙ ξ + Mη – ρ∙ση/σξ ∙ Mξ, илиЗамечаниеКоэффициент уравнения линейной регрессии ρ∙ση/σξ можно записать в виде: ρ∙ση/σξ = cov(ξ,η)/σ2ξ. Тогда уравнение линейной регрессии примет вид: Остаточная дисперсияНайдем значение S2ост = M(η – ηˆ)2 = M(η – (aξ+b))2. Для этого подставим полученные значения a и b.S2ост = M(η – (aξ + b))2 = M(η – (aξ + b))2=M[η – Mη – ρ∙ση/σξ(ξ – M ξ)]2 = M(η –Mη)2 +(ρ∙ση/σξ)2 M(ξ – M ξ)]2 –2 ρ∙ση/σξ M[(ξ – Mξ)∙(η – Mη)] = σ2η+ (ρ∙ση/σξ)2σ2ξ –2 ρ∙ση/σξ ∙ ρσξση =Остаточная дисперсияσ2η + (ρ∙ση)2 – 2 ρ2∙ση2 = σ2η – ρ2∙ση2 = = σ2η (1 – ρ2).Смысл: остаточная дисперсия выражает ошибку приближения при замене η на ηˆ= aξ+b.ПримерДискретная двумерная случайная величина (X,Y) задана таблицей распределения: ПримерНайдем одномерные законы распределения: ПримерВычислим числовые характеристики. MX = 0∙0,5 + 1∙0,2 + 2∙0,3 = 0,8. DX = 02∙0,5 + 12∙0,2 + 22∙0,3 – 0,82 = 0,76. MY = ( –1)∙0,3 + 0∙0,4 + 3∙0,3 = 0,6. DY = ( –1)2∙0,3 + 02∙0,4 + 32∙0,3 – 0,62 = 2,64. M(XY) = ( –1)∙2∙0,2 = – 0,4. ПримерНайдем ковариацию: cov(ξ, η) = M(ξ∙η) – M ξ∙ M η. В наших обозначениях cov(X, Y) = M(X∙Y) – MX∙ MY. cov(X,Y) = – 0,4 – 0,8∙0,6 = – 0,88. Величины X,Y отрицательно коррелированы. Коэффициент корреляцииЗапишем уравнение линейной регрессии Y на X.Подставим MX = 0,8, DX = 0,76, MY = 0,6. cov(X,Y) = – 0,88.Yˆ – 0,6 = – 0,88/0,76∙(X – 0,8).Остаточная дисперсияYˆ – 0,6 = – 1,16(X – 0,8). Yˆ= – 1,16X +1,53.Найдем остаточную дисперсию:S2ост.= σ2Y (1 – ρ2).S2ост.= 2,64∙(1 –0,642) ≈ 1,56.График линейной регрессииYˆ= – 1,16X + 1,53.Числовые характеристики многомерных случайных величинОпределение. Ковариационной матрицей случайных величин ξ1, ξ2 , …, ξn называется матрица K размерности n x n с элементами aij, равными ковариациям cov(ξi, ξj) = kij. K= (kij)n x n = (cov(ξi, ξj)) n x nКовариационная матрица ККорреляционная матрица RНаряду с ковариационной матрицей рассматривают и матрицу R, составленную из коэффициентов корреляции ρij = ρ(ξi, ξj). Уравнение множественной линейной регрессииРассмотрим случайные величины ξ0 ξ1, ξ2 , …, ξnс математическими ожиданиями Mξi = ai,с дисперсиями Dξi = σ2i,i = 0,1,…, n,и c корреляционной матрицей R размерности (n+1) х (n+1).Определение. Уравнением линейной регрессии ξ0 на ξ1, ξ2 , …, ξn называется уравнение Здесь bi (i =1,…, n) – параметры, минимизирующие остаточную дисперсию Минимизируя остаточную дисперсию, получаем, что Остаточная дисперсияЗдесь и далее через Rij обозначено алгебраическое дополнение элемента aij матрицы R, а через |R| – определитель матрицы R.Остаточная дисперсия равнаЧастный коэффициент корреляцииЧастный коэффициент корреляции используется как мера линейной зависимости между двумя какими –либо случайными величинами за вычетом влияния остальных случайных величин. Множественный (сводный) коэффициент корреляцииВыражает зависимость между ξ0 и всей совокупностью ξ1, ξ2 , … , ξn . |