Главная страница

Л. И. Магазинников Высшая математика IV


Скачать 0.82 Mb.
НазваниеЛ. И. Магазинников Высшая математика IV
Дата04.03.2018
Размер0.82 Mb.
Формат файлаpdf
Имя файлаver-st1 (1).pdf
ТипДокументы
#37694
страница8 из 10
1   2   3   4   5   6   7   8   9   10
i площадью ∆S
i
, в каждой из частичных областей выберем по точке (ξ
i
, η
i
) и построим дискретную случайную величину ˜
Z с рядом распределения, η
1
)
ϕ(ξ
2
, η
2
)
ϕ(ξ
n
, η
n
)
P
ρ(ξ
1
, η
1
)∆S
1
ρ(ξ
2
, η
2
)∆S
2
ρ(ξ
n
, По формуле (3.14) находим [ ˜
Z] =
n i=1
ϕ(ξ
i
, η
i
)ρ(ξ
i
, Величину M [ ˜
Z] можно принять за приближённое значение [Z]. Переходя к пределу при λ → 0, где λ — максимальный диаметр областей D
i
, получаем [Z] =
(D)
ϕ(x, y)ρ(x, Если система (X, Y ) задана на всей плоскости, то [Z] =
+∞
−∞
+∞
−∞
ϕ(x, y)ρ(x, при условии сходимости этого интеграла.
Формулы (3.15) и (3.17) легко обобщаются на любое число аргументов. Так, если U = ϕ(x, y, z), то [U ] =
(D)
ϕ(x, y, z)ρ(x, y, где D — область определения системы.
Пример 1
. Дана матрица 3
1 0,32 0,18 4
0,13 распределения системы (X, Y ) двух дискретных случайных величин. Найти M [Z], если Z = X
2
+ Y
2 82
Решение. Применяя формулу (3.14), получаем [Z] = [(−2)
2
+ 1] · 0,32 + (3 2
+ 1) · 0,18 + [(−2)
2
+ 4 2
] · 0,13+
+(3 2
+ 4 2
) · Пример 2
. Система непрерывных случайных величин, Y ) задана в круге x
2
+ плотностью распределения. Найти математическое ожидание случайной величины Z = X
2
· Решение. Применим формулу (3.16):
M [Z] =
2
πR
4
(D)
x
2
y
2
(x
2
+ где D — круг x
2
+ y
2
≤ R
2
. Перейдём к полярной системе координат x = r cos ϕ, y = r sin ϕ. Получим [Z] =
2
πR
4
R
0
r
7
dr

0
cos
2
ϕ sin
2
ϕdϕ =
=
R
4 16π

0
sin
2 2ϕdϕ =
R
4 16π

0 1 − cos 4ϕ
2
dϕ =
R
4 16 3.5. Характеристики связи двух случайных величин. Кривые регрессии
(условные математические ожидания)
Пусть даны две случайные величины X и Y . Наиболее полную характеристику их связи дают либо условные функции распределения F (x/y), F (y/x), либо условные плотности, ρ(y/x). Иногда достаточны менее полные характеристики, но более просто определяемые. К такими относятся условные математические ожидания или функции регрессии одной случайной величины на другую.
Для дискретных случайных величин X и Y условные математические ожидания мы определили в подразделе 3.1. Для непрерывных величин полагают [X/Y = y] =
+∞
−∞
xρ(x/y)dx,
(3.18)
M [Y /X = x] =
+∞
−∞
yρ(y/x)dy.
(3.19)
83
Условное математическое ожидание M [X/Y = y], как это следует из (3.18), есть некоторая функция ψ(y) аргумента y. Её
называют функцией регрессии случайной величины X на случайную величину Y . График функции x = ψ(y) называют кривой регрессии случайной величины X на Y . Соотношение (определяет функцию ϕ(x), называемую функцией регрессии на X, а её график называют кривой регрессии Y на Функции ϕ(x) и ψ(y) дают представление о виде зависимости случайных величин X и Y . Графики этих функций получаются при экспериментальном исследовании вида зависимости двух случайных величин.
Если случайные величины X и Y независимы, то кривые регрессии являются прямыми, параллельными осям координат,
пересекающимися в точке (m x
, m Для характеристики степени отклонения экспериментальных точек от кривой регрессии применяют условные дисперсии, определяемые для непрерывных величин соотношениями /X = x] =
+∞
−∞
(y − M[Y/X = x])
2
ρ(y/x)dy,
D[X/Y = y] =
+∞
−∞
(x − M[X/Y = Для дискретных величин эти формулы принимают вид /X = x i
] =
j
(y j
− M[Y/X = x i
])
2
P (y j
/x i
),
D[X/Y = y j
] =
i
(x i
− M[X/Y = y j
])
2
P (x i
/y Пример. Система (X, Y ) распределена равномерно в треугольнике с вершинами O(0, 0), A(2, 0), B(2, 4), те, y) =
c, если (x, y) лежит внутри треугольника OAB,
0, в остальных точках.
Найти функции регрессии y = ϕ(x) и x = ψ(y). (Так как c где S — площадь области D, тов нашем случае c =
1 4
= Решение. Зафиксируем каким-либо образом X = x в промежутке. При этом значении x величина Y меняется равномерно в интервале [0, 2x). Поэтому M [Y /X = x] =
0 + 2x
2
= x
84
см. подраздел 2.9). Следовательно, ϕ(x) = x. При фиксированном значении y величины Y из промежутка) величина- x
O
y x
y
B(2, 4)
A(2, 0)
X изменяется равномерно в промежутке. Следовательно. Поэтому) = 0,25y + 2. Кривые регрессии являются прямыми линиями, не параллельными осям координат. Следовательно, случайные величины X и Y зависимы.
Такой простой способ отыскания функций регрессии пригоден лишь для равномерных распределений. В общем случае необходимо использовать формулы (3.18) и (3.19).
Найдём функцию ϕ(x) данного примера, применяя формулу. Получаем ρ
1
(x) =
2x
0 0,25dy = 0,5x, ρ(y/x) =
0,25 0,5x
=
=
1 2x
. Теперь, из формулы (3.19) следует) = M [Y /X = x] =
2x
0
y
2x dy =
1 2x
·
y
2 2
2x
0
= Мы пришли к тому же результату. Коэффициент корреляции
Функции регрессии хорошо характеризуют зависимость одной случайной величины от другой, но их отыскание связано с громоздкими вычислениями. Применяют более простые, хотя и не столь полные характеристики. К такими относится коэффициент корреляции.
Для числовой характеристики степени зависимости величин и Y используют величину M [(X − m x
)(Y − m y
)], называемую ковариацией случайных величин X и Y , которая обозначается. Для непрерывных величина для дискретных —
cov(X, Y ) =
i j
(x i
− m x
)(y j
− m y
)p Теорема. Если случайные величины X и Y независимы, то cov(X, Y ) = Доказательство проведём для непрерывных случайных величин. Если случайные величины X и Y независимы, то, y) = ρ
1
(x)ρ
2
(y), следовательно, по формуле (3.20)
cov(X, Y ) =
+∞
−∞
(x − m x

1
(x)dx
+∞
−∞
(y − m y

2
(y)dy =
= M [(X −m x
)]·M[(Y −m y
)] = (m x
−m x
)(m y
−m y
) = Обратное утверждение неверно, те. из того, что cov(X, Y ) =
= 0, не следует независимость величин X и Y . Для зависимых величин cov(X, Y ) может быть как равной нулю, таки отличной от нуля.
Величину r xy
=
cov(X, Y )

D
x
D
y
=
cov(X, Y )
σ
x
σ
y называют коэффициентом корреляции
Случайные величины X и Y называются коррелированны- ми, если r xy
= 0 и некоррелированными, если r xy
= 0. Если случайные величины независимы, то они и некоррелированы.
Зависимые случайные величины могут быть как некоррелиро- ванными, таки коррелированными.
Как мы покажем в следующем подразделе, коэффициент корреляции характеризует нелюбого вида зависимости случайных величина лишь только линейные. Величина r xy
— это мера линейной зависимости случайных величин.
Непосредственное применение формул (3.20) и (3.21) для вычисления ковариации не всегда удобно. Преобразуем эти формулы.
Пользуясь аддитивным свойством двойного интеграла, из) получаем cov(X, Y ) =
+∞
−∞
+∞
−∞
xyρ(x, y)dxdy−

+∞
−∞
+∞
−∞
m x
yρ(x, y)dxdy −
+∞
−∞
+∞
−∞
m y
xρ(x, y)dxdy+
+
+∞
−∞
+∞
−∞
m x
m y
ρ(x, y)dxdy =
=
+∞
−∞
+∞
−∞
xyρ(x, y)dxdy − m x
+∞
−∞
ydy
+∞
−∞
ρ(x, y)dx−
−m y
+∞
−∞
xdx
+∞
−∞
ρ(x, y)dy + m x
m y
+∞
−∞
+∞
−∞
ρ(x, y)dxdy.
86
Воспользуемся далее свойствами 7 и 5 плотности распределения. Получим cov(X, Y ) =
+∞
−∞
+∞
−∞
xyρ(x, y)dxdy − m x
+∞
−∞

2
(y)dy−
−m y
+∞
−∞

1
(x)dx + m x
m y
=
=
+∞
−∞
+∞
−∞
xyρ(x, y)dxdy − m x
m y
− m y
m x
+ m x
m Мы получили cov(X, Y ) =
+∞
−∞
+∞
−∞
xyρ(x, y)dxdy − m x
m Аналогично соотношение (3.21) можно привести к виду cov(X, Y ) =
i j
x i
y j
p ij
− m x
m Формулы (3.22) и (3.23) можно объединить в одну cov(X, Y ) = M [X · Y ] − m x
m Пример 1
. Дана матрица 2
3 0,20 0,30 4
0,40 распределения системы дискретных случайных величин. Найти Решение. Находим ряды распределения для X и Y :
X
1 2
p
0,6 0,4
Y
3 4
p
0,5 Следовательно, m x
= 0,6 + 0,8 = 1,4, m y
= 1,5 + 2,0 = По формуле (3.23) получаем cov(X, Y ) = 1 · 3 · 0,2 + 3 · 2 · 0,3+
+4 · 1 · 0,4 + 4 · 2 · 0,1 − 1,4 · 3,5 = 0,6 + 1,8 + 1,6 + 0,8 − 4,9 =
= 4,8 − 4,9 = Пример 2
. Двумерная случайная величина (X, Y ) задана плотностью распределения, y) =



24xy, если (x, y) лежит внутри треугольника,
с вершинами O(0, 0), A(1, 0), B(0, в остальных точках.
Найти cov(X, Y ).
87
Решение. В примере 3 из подраздела 3.3 мы нашли, что) =
12x(1 − x)
2
, если 0 < x < в остальных точках) =
12y(1 − y)
2
, если 0 < y < в остальных точках- x
0
y
A(1, 0)
B(0, 1)
x + y = Поэтому m
y
= m x
=
1 0
12x
2
(1 − x)
2
dx =
=
1 0
12(x
2
− 2x
3
+ x
4
)dx =
= 12 1
3

2 4
+
1 5
=
= 12 ·
20 − 30 + 12 60
=
24 60
=
2 5
=
= По формуле (3.22) вычисляем, Y ) где D — область, лежащая внутри треугольника OAB.
cov(X, Y ) = 24 1
0
x
2
dx
1−x
0
y
2
dy − 0,16 = 8 1
0
x
2
(1 − x)
3
dx−
−0,16 = 8 1
0
(x
2
− 3x
3
+ 3x
4
− x
5
)dx − 0,16 =
= 8 1
3

3 4
+
3 5

1 6
− 0,16 =
2 15

4 25
=
10 − 12 75
= −
2 75 3.6. Теоремы о свойствах числовых характеристик случайных величин. Свойства математического ожидания
В подразделе 2.4 мы уже показали, что [C] = C, M [CX] = CM [X], C = Теорема 1
. Если случайные величины X и Y имеют конечные математические ожидания, то M [αX + βY ] = αM [X] +
+βM [Y ], где α и β — константы.
Доказательство теоремы проведём для непрерывных случайных величин. Пусть ρ(x, y) — плотность распределения системы, тогда по формуле (3.16) находим

M [αx + βy] =
+∞
−∞
+∞
−∞
(αx + βy)ρ(x, y)dxdy =
= α
+∞
−∞
+∞
−∞
xρ(x, y)dxdy + β
+∞
−∞
+∞
−∞
yρ(x, y)dxdy =
= α
+∞
−∞
xdx
+∞
−∞
ρ(x, y)dy + β
+∞
−∞
ydy
+∞
−∞
ρ(x, y)dx =
= α
+∞
−∞

1
(x)dx + β
+∞
−∞

2
(y)dy = αM [X] + βM [Y При этом мы воспользовались формулами (Если α = β = 1, то M [X + Y ] = M [X] + M [Y Теорему 1 легко обобщить на любое число слагаемых и получить Теорема 2
. Если случайные величины X и Y имеют конечные математические ожидания, то [X · Y ] = M[X] · M[Y ] + cov(X, Y Соотношение (3.25) следует из формулы (3.24). В частности, если X и Y некоррелированы, то cov(X, Y ) = 0 и тогда [X · Y ] = M[X] · M[Y ].
3.6.2. Свойства дисперсии
В подразделе 2.6 мы уже показали, что = 0, D[CX] = C
2
D[X], где C — константа.
Теорема 3
. Для любых случайных величин, имеющих конечную дисперсию, справедливо соотношение + Y ] = D[X] + D[Y ] + 2cov(X, Y Доказательство. D[X + Y ] = M [(X + Y − M[X + Y ])
2
] =
= M [{(X − m x
) + (Y − m y
)}
2
] = M [(X − m x
)
2
] + M [(Y − m y
)
2
]+
+2M [(X − m x
)(Y − m y
)] = M [(X − m x
)
2
] + M [(Y − m y
)
2
]+
+2M [(X − m x
)(Y − m y
)] = D
x
+ D
y
+ 2cov(X, Y Для некоррелированных величин D[X + Y ] = D[X] + D[Y Пользуясь свойством D[CX] = C
2
D[X] и формулой (легко показать, что + βY ] = α
2
D[X] + β
2
D[Y ] + 2αβcov(X, Y Формулу (3.27) легко обобщить на любое число слагаемых i=1
α
i
X
i
=
n i=1
α
2
i
D[X
i
] + 2
n i,j=1,iα
i
α
j cov(X
i
, X
j
).
89

3.6.3. Свойства коэффициента корреляции.
Понятие линейной среднеквадратичной регрессии
Теорема 4
. Для любых случайных величин X и Y , имеющих конечные дисперсии, значение коэффициента корреляции r xy не превышает по модулю единицы, те. −1 ≤ r Доказательство. Найдём математическое ожидание [Z
1,2
] = M


X − m x
σ
x
±
Y − m Из теоремы 1 следует [Z
1,2
] =
= M
(X − m x
)
2
σ
2
x
+
(Y − m y
)
2
σ
2
y
± 2
(X − m x
)(Y − m y
)
σ
x
σ
y
=
=
M [(X − m x
)
2
]
σ
2
x
+
M [(Y − m y
)
2
]
σ
2
y
±
±2
M [(X − m x
)(Y − m Так как M [(X − m x
)
2
] = D
x
= σ
2
x
, M [(Y − m y
)
2
] = D
y
= σ
2
y
,
M [(X − m x
)(Y − m y
)]
σ
x
σ
y
= r xy
, то M [Z
1,2
] = 2(1 ± r xy
). Поскольку, то и M[Z
1,2
] ≥ 0, а потому 1 ± r те. −1 ≤ r Теорема 5
. Если случайные величины X и Y связаны линейной зависимостью Y = aX + b, где a и b константы, то r
xy
=
1, если a > 0,
−1, если a < Доказательство. По свойству математического ожидания m
y
= am x
+ b, поэтому Y − m y
= aX + b − am x
− b = a(X − m Следовательно, Y ) = M [(X − m x
)(Y − m y
)] = M [a(X − m x
)
2
] = aD
x
,
D[Y ] = M [(Y − m y
)
2
] = M [a
2
(X − m x
)
2
] = a
2
D
x
,
r xy
=
cov(X, Y )

D
x
D
y
=
aD
x

a
2
D
x
D
x
=
a
|a|
= что и требовалось доказать
Мы докажем справедливость обратного утверждения, т.е.
что из равенства |r xy
| = 1 следует линейная зависимость и Y , но для этого нам понадобится понятие линейной среднеквадратичной регрессии одной случайной величины на другую.
Пусть X и Y зависимые случайные величины. Представим приближённо Y как линейную функцию от X: Y ∼
= aX + b, где параметры a и b подлежат определению. Функцию g(X) =
= aX + b называют наилучшим приближением Y в смысле метода наименьших квадратов, если величина M [(Y − aX−
− b)
2
] принимает наименьшее значение. Функцию g(X) =
= aX + b при этих значениях параметров a и b называют линейной среднеквадратичной регрессией на X. Найдём эти значения a и Рассмотрим функцию F (a, b) = M [(Y −aX −b)
2
] и выясним,
при каких значениях a иона принимает наименьшее значение.
Можем записать F (a, b) = M [{(Y − m y
) − a(X − m x
) + (m y

−b − am x
)}
2
] = M [(Y − m y
)
2
] + a
2
M [(X − m x
)
2
] − 2aM[(Y −
−m y
)(X − m x
)] + (m y
− b − am x
)
2
, отсюда (a, b) = σ
2
y
+ a
2
σ
2
x
− 2ar xy
σ
x
σ
y
+ (m y
− b − am Исследуем эту функцию на экстремум. Находим 2aσ
2
x
− 2r xy
σ
x
σ
y
− 2(m y
− b − am x
)m x
,
∂F
∂b
= −2(m y
− b − am x
),

2
F
∂a
2
= 2σ
2
x
+ 2m
2
x
,

2
F
∂b
2
= 2,

2
F
∂a∂b
= 2m x
. Из условий 0,
∂F
∂b
= 0 получаем a =
σ
y
σ
x r
xy
,
b = m y
− r xy Так как 0,

2
F
∂a
2

2
F
∂a∂b

2
F
∂a∂b

2
F
∂b
2
= 4σ
2
x
> 0, то при найденных значениях a и b функция принимает минимальное значение, а поскольку критическая точка единственна, то это значение будет наименьшим.
Мы получили, что функция линейной среднеквадратичной регрессии Y на X имеет вид g(X) = m y
+ r xy
σ
y
σ
x
(X − m x
).
91
Прямая y − m y
= r xy
σ
y
σ
x
(x − m x
) называется прямой среднеквадратичной регрессии на При найденных значениях a и b функция F (a, b) = σ
2
y
(1 −
−r
2
xy
). Величину ∆ = σ
2
y
(1 − r
2
xy
) называют остаточной дисперсией случайной величины Y относительно случайной величины. Она определяет величину ошибки приближённого равенства. Если окажется r xy
= ±1, то ошибки не возникает, но тогда X и Y связаны линейной функциональной зависимостью.
Доказана следующая теорема.
Теорема 6
. Если коэффициент корреляции r xy случайных величин X и Y равен ±1, то эти величины связаны линейной функциональной зависимостью.
Аналогично можно получить прямую средней квадратичной регрессии X на Y : x − m x
= r xy
σ
x
σ
y
(y − m y
) и остаточную дисперсию ∆ = σ
2
x
(1−r
2
xy
). При r xy
= ±1 обе прямые регрессии совпадают. Двумерное нормальное распределение
Система (X, Y ) называется двумерной нормальной случайной величиной, если плотность распределения имеет вид, y) =
=
exp −
1 2(1 − r
2
)
(x − m x
)
2
σ
2
x

2r(x − m x
)(y − m y
)
σ
x
σ
y
+
(y − m y
)
2
σ
2
y
2πσ
x
σ
y

1 − где r = Вычисляя интегралы, y)dy = ρ
1
(x) и, y)dx = ρ
2
(y), легко получить, что) =
1

2πσ
x exp −
(x − m x
)
2 2σ
2
x
,
ρ
2
(y) =
1

2πσ
y exp −
(y − m y
)
2 Таким образом, величины X и Y , входящие в систему, распределены нормально с параметрами m x
, σ
x
, m y
, σ
y
92
Вычислив [(X − m x
)(Y − m y
)] =
+∞
−∞
+∞
−∞
(x − m x
)(y − m y
)ρ(x, получим cov(X, Y ) = rσ
x
σ
y
. Следовательно, величина r является коэффициентом корреляции случайных величин X и Y Если r = 0, то ρ(x, y) = ρ
1
(x)ρ
2
(y), те. если случайные величины X ив нормальной системе некоррелированы, то они и независимы, что в общем случае, как мы видели ранее,
неверно (см. подраздел Используя формулы ρ(x/y) =
ρ(x, y)
ρ
2
(y)
, ρ(y/x) =
ρ(x, y)
ρ
1
(x)
, находим, что) =
exp




1 2(1 − r
2

2
x x − m x
− r
σ
x
σ
y
(y − m y
)
2



σ
x

1 − r
2


,
ρ(y/x) =
exp −
1 2(1 − r
2

2
y y − m y
− r
σ
y
σ
x
(y − m y
)
2
σ
y

1 − Видим, что функция ρ(y/x) есть плотность нормального распределения с математическим ожиданием [Y /x] = m y
+ r
σ
x
σ
y
(x − m и дисперсией D[Y /x] = σ
2
y
(1 − Кривая регрессии случайной величины Y на X является прямой линией y = m y
+ r
σ
y
σ
x
(x − m а X на Y —
x = m x
1   2   3   4   5   6   7   8   9   10


написать администратору сайта