Л. И. Магазинников Высшая математика IV
Скачать 0.82 Mb.
|
i площадью ∆S i , в каждой из частичных областей выберем по точке (ξ i , η i ) и построим дискретную случайную величину ˜ Z с рядом распределения, η 1 ) ϕ(ξ 2 , η 2 ) ϕ(ξ n , η n ) P ρ(ξ 1 , η 1 )∆S 1 ρ(ξ 2 , η 2 )∆S 2 ρ(ξ n , По формуле (3.14) находим [ ˜ Z] = n i=1 ϕ(ξ i , η i )ρ(ξ i , Величину M [ ˜ Z] можно принять за приближённое значение [Z]. Переходя к пределу при λ → 0, где λ — максимальный диаметр областей D i , получаем [Z] = (D) ϕ(x, y)ρ(x, Если система (X, Y ) задана на всей плоскости, то [Z] = +∞ −∞ +∞ −∞ ϕ(x, y)ρ(x, при условии сходимости этого интеграла. Формулы (3.15) и (3.17) легко обобщаются на любое число аргументов. Так, если U = ϕ(x, y, z), то [U ] = (D) ϕ(x, y, z)ρ(x, y, где D — область определения системы. Пример 1 . Дана матрица 3 1 0,32 0,18 4 0,13 распределения системы (X, Y ) двух дискретных случайных величин. Найти M [Z], если Z = X 2 + Y 2 82 Решение. Применяя формулу (3.14), получаем [Z] = [(−2) 2 + 1] · 0,32 + (3 2 + 1) · 0,18 + [(−2) 2 + 4 2 ] · 0,13+ +(3 2 + 4 2 ) · Пример 2 . Система непрерывных случайных величин, Y ) задана в круге x 2 + плотностью распределения. Найти математическое ожидание случайной величины Z = X 2 · Решение. Применим формулу (3.16): M [Z] = 2 πR 4 (D) x 2 y 2 (x 2 + где D — круг x 2 + y 2 ≤ R 2 . Перейдём к полярной системе координат x = r cos ϕ, y = r sin ϕ. Получим [Z] = 2 πR 4 R 0 r 7 dr 2π 0 cos 2 ϕ sin 2 ϕdϕ = = R 4 16π 2π 0 sin 2 2ϕdϕ = R 4 16π 2π 0 1 − cos 4ϕ 2 dϕ = R 4 16 3.5. Характеристики связи двух случайных величин. Кривые регрессии (условные математические ожидания) Пусть даны две случайные величины X и Y . Наиболее полную характеристику их связи дают либо условные функции распределения F (x/y), F (y/x), либо условные плотности, ρ(y/x). Иногда достаточны менее полные характеристики, но более просто определяемые. К такими относятся условные математические ожидания или функции регрессии одной случайной величины на другую. Для дискретных случайных величин X и Y условные математические ожидания мы определили в подразделе 3.1. Для непрерывных величин полагают [X/Y = y] = +∞ −∞ xρ(x/y)dx, (3.18) M [Y /X = x] = +∞ −∞ yρ(y/x)dy. (3.19) 83 Условное математическое ожидание M [X/Y = y], как это следует из (3.18), есть некоторая функция ψ(y) аргумента y. Её называют функцией регрессии случайной величины X на случайную величину Y . График функции x = ψ(y) называют кривой регрессии случайной величины X на Y . Соотношение (определяет функцию ϕ(x), называемую функцией регрессии на X, а её график называют кривой регрессии Y на Функции ϕ(x) и ψ(y) дают представление о виде зависимости случайных величин X и Y . Графики этих функций получаются при экспериментальном исследовании вида зависимости двух случайных величин. Если случайные величины X и Y независимы, то кривые регрессии являются прямыми, параллельными осям координат, пересекающимися в точке (m x , m Для характеристики степени отклонения экспериментальных точек от кривой регрессии применяют условные дисперсии, определяемые для непрерывных величин соотношениями /X = x] = +∞ −∞ (y − M[Y/X = x]) 2 ρ(y/x)dy, D[X/Y = y] = +∞ −∞ (x − M[X/Y = Для дискретных величин эти формулы принимают вид /X = x i ] = j (y j − M[Y/X = x i ]) 2 P (y j /x i ), D[X/Y = y j ] = i (x i − M[X/Y = y j ]) 2 P (x i /y Пример. Система (X, Y ) распределена равномерно в треугольнике с вершинами O(0, 0), A(2, 0), B(2, 4), те, y) = c, если (x, y) лежит внутри треугольника OAB, 0, в остальных точках. Найти функции регрессии y = ϕ(x) и x = ψ(y). (Так как c где S — площадь области D, тов нашем случае c = 1 4 = Решение. Зафиксируем каким-либо образом X = x в промежутке. При этом значении x величина Y меняется равномерно в интервале [0, 2x). Поэтому M [Y /X = x] = 0 + 2x 2 = x 84 см. подраздел 2.9). Следовательно, ϕ(x) = x. При фиксированном значении y величины Y из промежутка) величина- x O y x y B(2, 4) A(2, 0) X изменяется равномерно в промежутке. Следовательно. Поэтому) = 0,25y + 2. Кривые регрессии являются прямыми линиями, не параллельными осям координат. Следовательно, случайные величины X и Y зависимы. Такой простой способ отыскания функций регрессии пригоден лишь для равномерных распределений. В общем случае необходимо использовать формулы (3.18) и (3.19). Найдём функцию ϕ(x) данного примера, применяя формулу. Получаем ρ 1 (x) = 2x 0 0,25dy = 0,5x, ρ(y/x) = 0,25 0,5x = = 1 2x . Теперь, из формулы (3.19) следует) = M [Y /X = x] = 2x 0 y 2x dy = 1 2x · y 2 2 2x 0 = Мы пришли к тому же результату. Коэффициент корреляции Функции регрессии хорошо характеризуют зависимость одной случайной величины от другой, но их отыскание связано с громоздкими вычислениями. Применяют более простые, хотя и не столь полные характеристики. К такими относится коэффициент корреляции. Для числовой характеристики степени зависимости величин и Y используют величину M [(X − m x )(Y − m y )], называемую ковариацией случайных величин X и Y , которая обозначается. Для непрерывных величина для дискретных — cov(X, Y ) = i j (x i − m x )(y j − m y )p Теорема. Если случайные величины X и Y независимы, то cov(X, Y ) = Доказательство проведём для непрерывных случайных величин. Если случайные величины X и Y независимы, то, y) = ρ 1 (x)ρ 2 (y), следовательно, по формуле (3.20) cov(X, Y ) = +∞ −∞ (x − m x )ρ 1 (x)dx +∞ −∞ (y − m y )ρ 2 (y)dy = = M [(X −m x )]·M[(Y −m y )] = (m x −m x )(m y −m y ) = Обратное утверждение неверно, те. из того, что cov(X, Y ) = = 0, не следует независимость величин X и Y . Для зависимых величин cov(X, Y ) может быть как равной нулю, таки отличной от нуля. Величину r xy = cov(X, Y ) √ D x D y = cov(X, Y ) σ x σ y называют коэффициентом корреляции Случайные величины X и Y называются коррелированны- ми, если r xy = 0 и некоррелированными, если r xy = 0. Если случайные величины независимы, то они и некоррелированы. Зависимые случайные величины могут быть как некоррелиро- ванными, таки коррелированными. Как мы покажем в следующем подразделе, коэффициент корреляции характеризует нелюбого вида зависимости случайных величина лишь только линейные. Величина r xy — это мера линейной зависимости случайных величин. Непосредственное применение формул (3.20) и (3.21) для вычисления ковариации не всегда удобно. Преобразуем эти формулы. Пользуясь аддитивным свойством двойного интеграла, из) получаем cov(X, Y ) = +∞ −∞ +∞ −∞ xyρ(x, y)dxdy− − +∞ −∞ +∞ −∞ m x yρ(x, y)dxdy − +∞ −∞ +∞ −∞ m y xρ(x, y)dxdy+ + +∞ −∞ +∞ −∞ m x m y ρ(x, y)dxdy = = +∞ −∞ +∞ −∞ xyρ(x, y)dxdy − m x +∞ −∞ ydy +∞ −∞ ρ(x, y)dx− −m y +∞ −∞ xdx +∞ −∞ ρ(x, y)dy + m x m y +∞ −∞ +∞ −∞ ρ(x, y)dxdy. 86 Воспользуемся далее свойствами 7 и 5 плотности распределения. Получим cov(X, Y ) = +∞ −∞ +∞ −∞ xyρ(x, y)dxdy − m x +∞ −∞ yρ 2 (y)dy− −m y +∞ −∞ xρ 1 (x)dx + m x m y = = +∞ −∞ +∞ −∞ xyρ(x, y)dxdy − m x m y − m y m x + m x m Мы получили cov(X, Y ) = +∞ −∞ +∞ −∞ xyρ(x, y)dxdy − m x m Аналогично соотношение (3.21) можно привести к виду cov(X, Y ) = i j x i y j p ij − m x m Формулы (3.22) и (3.23) можно объединить в одну cov(X, Y ) = M [X · Y ] − m x m Пример 1 . Дана матрица 2 3 0,20 0,30 4 0,40 распределения системы дискретных случайных величин. Найти Решение. Находим ряды распределения для X и Y : X 1 2 p 0,6 0,4 Y 3 4 p 0,5 Следовательно, m x = 0,6 + 0,8 = 1,4, m y = 1,5 + 2,0 = По формуле (3.23) получаем cov(X, Y ) = 1 · 3 · 0,2 + 3 · 2 · 0,3+ +4 · 1 · 0,4 + 4 · 2 · 0,1 − 1,4 · 3,5 = 0,6 + 1,8 + 1,6 + 0,8 − 4,9 = = 4,8 − 4,9 = Пример 2 . Двумерная случайная величина (X, Y ) задана плотностью распределения, y) = 24xy, если (x, y) лежит внутри треугольника, с вершинами O(0, 0), A(1, 0), B(0, в остальных точках. Найти cov(X, Y ). 87 Решение. В примере 3 из подраздела 3.3 мы нашли, что) = 12x(1 − x) 2 , если 0 < x < в остальных точках) = 12y(1 − y) 2 , если 0 < y < в остальных точках- x 0 y A(1, 0) B(0, 1) x + y = Поэтому m y = m x = 1 0 12x 2 (1 − x) 2 dx = = 1 0 12(x 2 − 2x 3 + x 4 )dx = = 12 1 3 − 2 4 + 1 5 = = 12 · 20 − 30 + 12 60 = 24 60 = 2 5 = = По формуле (3.22) вычисляем, Y ) где D — область, лежащая внутри треугольника OAB. cov(X, Y ) = 24 1 0 x 2 dx 1−x 0 y 2 dy − 0,16 = 8 1 0 x 2 (1 − x) 3 dx− −0,16 = 8 1 0 (x 2 − 3x 3 + 3x 4 − x 5 )dx − 0,16 = = 8 1 3 − 3 4 + 3 5 − 1 6 − 0,16 = 2 15 − 4 25 = 10 − 12 75 = − 2 75 3.6. Теоремы о свойствах числовых характеристик случайных величин. Свойства математического ожидания В подразделе 2.4 мы уже показали, что [C] = C, M [CX] = CM [X], C = Теорема 1 . Если случайные величины X и Y имеют конечные математические ожидания, то M [αX + βY ] = αM [X] + +βM [Y ], где α и β — константы. Доказательство теоремы проведём для непрерывных случайных величин. Пусть ρ(x, y) — плотность распределения системы, тогда по формуле (3.16) находим M [αx + βy] = +∞ −∞ +∞ −∞ (αx + βy)ρ(x, y)dxdy = = α +∞ −∞ +∞ −∞ xρ(x, y)dxdy + β +∞ −∞ +∞ −∞ yρ(x, y)dxdy = = α +∞ −∞ xdx +∞ −∞ ρ(x, y)dy + β +∞ −∞ ydy +∞ −∞ ρ(x, y)dx = = α +∞ −∞ xρ 1 (x)dx + β +∞ −∞ yρ 2 (y)dy = αM [X] + βM [Y При этом мы воспользовались формулами (Если α = β = 1, то M [X + Y ] = M [X] + M [Y Теорему 1 легко обобщить на любое число слагаемых и получить Теорема 2 . Если случайные величины X и Y имеют конечные математические ожидания, то [X · Y ] = M[X] · M[Y ] + cov(X, Y Соотношение (3.25) следует из формулы (3.24). В частности, если X и Y некоррелированы, то cov(X, Y ) = 0 и тогда [X · Y ] = M[X] · M[Y ]. 3.6.2. Свойства дисперсии В подразделе 2.6 мы уже показали, что = 0, D[CX] = C 2 D[X], где C — константа. Теорема 3 . Для любых случайных величин, имеющих конечную дисперсию, справедливо соотношение + Y ] = D[X] + D[Y ] + 2cov(X, Y Доказательство. D[X + Y ] = M [(X + Y − M[X + Y ]) 2 ] = = M [{(X − m x ) + (Y − m y )} 2 ] = M [(X − m x ) 2 ] + M [(Y − m y ) 2 ]+ +2M [(X − m x )(Y − m y )] = M [(X − m x ) 2 ] + M [(Y − m y ) 2 ]+ +2M [(X − m x )(Y − m y )] = D x + D y + 2cov(X, Y Для некоррелированных величин D[X + Y ] = D[X] + D[Y Пользуясь свойством D[CX] = C 2 D[X] и формулой (легко показать, что + βY ] = α 2 D[X] + β 2 D[Y ] + 2αβcov(X, Y Формулу (3.27) легко обобщить на любое число слагаемых i=1 α i X i = n i=1 α 2 i D[X i ] + 2 n i,j=1,i i α j cov(X i , X j ). 89 3.6.3. Свойства коэффициента корреляции. Понятие линейной среднеквадратичной регрессии Теорема 4 . Для любых случайных величин X и Y , имеющих конечные дисперсии, значение коэффициента корреляции r xy не превышает по модулю единицы, те. −1 ≤ r Доказательство. Найдём математическое ожидание [Z 1,2 ] = M X − m x σ x ± Y − m Из теоремы 1 следует [Z 1,2 ] = = M (X − m x ) 2 σ 2 x + (Y − m y ) 2 σ 2 y ± 2 (X − m x )(Y − m y ) σ x σ y = = M [(X − m x ) 2 ] σ 2 x + M [(Y − m y ) 2 ] σ 2 y ± ±2 M [(X − m x )(Y − m Так как M [(X − m x ) 2 ] = D x = σ 2 x , M [(Y − m y ) 2 ] = D y = σ 2 y , M [(X − m x )(Y − m y )] σ x σ y = r xy , то M [Z 1,2 ] = 2(1 ± r xy ). Поскольку, то и M[Z 1,2 ] ≥ 0, а потому 1 ± r те. −1 ≤ r Теорема 5 . Если случайные величины X и Y связаны линейной зависимостью Y = aX + b, где a и b константы, то r xy = 1, если a > 0, −1, если a < Доказательство. По свойству математического ожидания m y = am x + b, поэтому Y − m y = aX + b − am x − b = a(X − m Следовательно, Y ) = M [(X − m x )(Y − m y )] = M [a(X − m x ) 2 ] = aD x , D[Y ] = M [(Y − m y ) 2 ] = M [a 2 (X − m x ) 2 ] = a 2 D x , r xy = cov(X, Y ) √ D x D y = aD x √ a 2 D x D x = a |a| = что и требовалось доказать Мы докажем справедливость обратного утверждения, т.е. что из равенства |r xy | = 1 следует линейная зависимость и Y , но для этого нам понадобится понятие линейной среднеквадратичной регрессии одной случайной величины на другую. Пусть X и Y зависимые случайные величины. Представим приближённо Y как линейную функцию от X: Y ∼ = aX + b, где параметры a и b подлежат определению. Функцию g(X) = = aX + b называют наилучшим приближением Y в смысле метода наименьших квадратов, если величина M [(Y − aX− − b) 2 ] принимает наименьшее значение. Функцию g(X) = = aX + b при этих значениях параметров a и b называют линейной среднеквадратичной регрессией на X. Найдём эти значения a и Рассмотрим функцию F (a, b) = M [(Y −aX −b) 2 ] и выясним, при каких значениях a иона принимает наименьшее значение. Можем записать F (a, b) = M [{(Y − m y ) − a(X − m x ) + (m y − −b − am x )} 2 ] = M [(Y − m y ) 2 ] + a 2 M [(X − m x ) 2 ] − 2aM[(Y − −m y )(X − m x )] + (m y − b − am x ) 2 , отсюда (a, b) = σ 2 y + a 2 σ 2 x − 2ar xy σ x σ y + (m y − b − am Исследуем эту функцию на экстремум. Находим 2aσ 2 x − 2r xy σ x σ y − 2(m y − b − am x )m x , ∂F ∂b = −2(m y − b − am x ), ∂ 2 F ∂a 2 = 2σ 2 x + 2m 2 x , ∂ 2 F ∂b 2 = 2, ∂ 2 F ∂a∂b = 2m x . Из условий 0, ∂F ∂b = 0 получаем a = σ y σ x r xy , b = m y − r xy Так как 0, ∂ 2 F ∂a 2 ∂ 2 F ∂a∂b ∂ 2 F ∂a∂b ∂ 2 F ∂b 2 = 4σ 2 x > 0, то при найденных значениях a и b функция принимает минимальное значение, а поскольку критическая точка единственна, то это значение будет наименьшим. Мы получили, что функция линейной среднеквадратичной регрессии Y на X имеет вид g(X) = m y + r xy σ y σ x (X − m x ). 91 Прямая y − m y = r xy σ y σ x (x − m x ) называется прямой среднеквадратичной регрессии на При найденных значениях a и b функция F (a, b) = σ 2 y (1 − −r 2 xy ). Величину ∆ = σ 2 y (1 − r 2 xy ) называют остаточной дисперсией случайной величины Y относительно случайной величины. Она определяет величину ошибки приближённого равенства. Если окажется r xy = ±1, то ошибки не возникает, но тогда X и Y связаны линейной функциональной зависимостью. Доказана следующая теорема. Теорема 6 . Если коэффициент корреляции r xy случайных величин X и Y равен ±1, то эти величины связаны линейной функциональной зависимостью. Аналогично можно получить прямую средней квадратичной регрессии X на Y : x − m x = r xy σ x σ y (y − m y ) и остаточную дисперсию ∆ = σ 2 x (1−r 2 xy ). При r xy = ±1 обе прямые регрессии совпадают. Двумерное нормальное распределение Система (X, Y ) называется двумерной нормальной случайной величиной, если плотность распределения имеет вид, y) = = exp − 1 2(1 − r 2 ) (x − m x ) 2 σ 2 x − 2r(x − m x )(y − m y ) σ x σ y + (y − m y ) 2 σ 2 y 2πσ x σ y √ 1 − где r = Вычисляя интегралы, y)dy = ρ 1 (x) и, y)dx = ρ 2 (y), легко получить, что) = 1 √ 2πσ x exp − (x − m x ) 2 2σ 2 x , ρ 2 (y) = 1 √ 2πσ y exp − (y − m y ) 2 Таким образом, величины X и Y , входящие в систему, распределены нормально с параметрами m x , σ x , m y , σ y 92 Вычислив [(X − m x )(Y − m y )] = +∞ −∞ +∞ −∞ (x − m x )(y − m y )ρ(x, получим cov(X, Y ) = rσ x σ y . Следовательно, величина r является коэффициентом корреляции случайных величин X и Y Если r = 0, то ρ(x, y) = ρ 1 (x)ρ 2 (y), те. если случайные величины X ив нормальной системе некоррелированы, то они и независимы, что в общем случае, как мы видели ранее, неверно (см. подраздел Используя формулы ρ(x/y) = ρ(x, y) ρ 2 (y) , ρ(y/x) = ρ(x, y) ρ 1 (x) , находим, что) = exp − 1 2(1 − r 2 )σ 2 x x − m x − r σ x σ y (y − m y ) 2 σ x √ 1 − r 2 √ 2π , ρ(y/x) = exp − 1 2(1 − r 2 )σ 2 y y − m y − r σ y σ x (y − m y ) 2 σ y √ 1 − Видим, что функция ρ(y/x) есть плотность нормального распределения с математическим ожиданием [Y /x] = m y + r σ x σ y (x − m и дисперсией D[Y /x] = σ 2 y (1 − Кривая регрессии случайной величины Y на X является прямой линией y = m y + r σ y σ x (x − m а X на Y — x = m x |