Для системы случайных величин также вводятся числовые характеристики, подобные тем, какие были для одной случайной величины. В качестве числовых характеристик системы (X, У) обычно рассматривают моменты различных порядков (см. п. 2.5). На практике чаще всего используются моменты I и II порядков: математическое ожидание (м. о.), дисперсия и корреляционный момент. Математическое ожидание и дисперсия двумерной случайной величины служат соответственно средним значением и мерой рассеяния. Корреляционный момент выражает меру взаимного влияния случайных величин, входящих в систему (X, У).
К] Математическим ожиданием двумерной с. в. (X, У) называется
совокупность двух м.о. MX и МУ, определяемых равенствами:
п т п т
MX = тх = x*Pv> MY = mf = ЕЕ (3-20)
если (Х,У) — дискретная система с. в. (здесь ptj — Р{Х = Xi,Y = и
оо оо оо оо
МХ= J J xf{x,y)dxdy, MY = J I yf{x,y)dxdy, (3.21)
— oo —oo —oo —oo
если (X,У) — непрерывная система с. в. (здесь /(ж,у) — плотность распределения системы).
Дисперсией системы с. е. (Л", У) называется совокупность двух дисперсий DX и -ОУ, определяемых равенствами:
п т п т
DX = - mx)2pih DY^Yl Sfe " my)2Piji (3-22)
г—1 j=l j=l
если (X, У) — дискретная система с. в. и
оо оо оо оо
VX = J J (х -mx)2f{x,y)dxdy, DY = J j (у - my)2f(x,y) dxdy,
—oo —oo —oo —oo
(3.23)
если (X, У) — непрерывная система с. в.
Дисперсии DX и DY характеризуют рассеяние (разброс) случайной точки (X, У) и в направлении осей Ох и Оу вокруг точки (тх, ту) на плоскости Оху — центра рассеяния.
Математические ожидания тх и ту являются частными случаями начального момента s порядка k + s системы (X, У), определяемого равенством
akyS = M(XkYs);
тх = М(ХхУ0) = en,о и fTiy — М(Х°У!) - а0)1.
Дисперсии DX и 1>У являются частными случаями центрального.шшента /ifc)S порядка k + s системы (X, У), определяемого равенством
|
tiki$ = M((X-mx)k(Y-myy);
DX = М(Х - тх)2 = /12,0 и ЛУ = М(У - ту)2 = Мо,2-
Математическое ожидание с.в. с/?(Х,У), являющейся функцией компонент X и У двумерной с. в. (X, У) находится, аналогично, по формулам:
оо оо
М(<р(Х,У)) = J J <p(x,y)f(x,y)dxdy (3.24)
для непрерывного случая и
7i т
М(<р(Х, У)) = Y, £ Vj)Pij (З-25)
г—1 j=l
для дискретного случая.
Начальный момент II порядка «хд — MXY часто встречается в приложениях. Вычисляется по формуле
п т
MXY = (3.26)
Т=1 j = l
для дискретных с. в.
оо оо
MXY = J J xyf{x,y)dxdy (3.27)
для непрерывных с. в.
Корреляционный момент, коэффициент корреляции
Особую роль играет центральный смешанный момент второго порядка дхд = M(X^mx)(Y—my) = MXY, называемый корреляционным моментом или лш-мемтпсш связи. рч| #орреллг$ион>тл< л«ол4ентол4 (или ковариацией) двух случайных ве
личин X и У называется м. о. произведения отклонений этих с. в. от их м.о. и обозначается через Kxy или cov(X,У). Таким образом, по определению
Kxy = cov(X, У) = М[{Х - mx){Y - my)] = MXY. (3.28)
При этом: если (X, У) — дискретная двумерная с.в., то ковариация вычисляется по формуле
п т
КХУ = £ ~~ m*Ki/j ~ my)Pij> (3-29)
г=1 j= 1
если (X, У) — непрерывная двумерная с. в., то
оо оо
Kxy = J j (х ~тх){у -my)f(x,y)dxdy (3.30)
—оо —оо
(формулы (3.29) и (3.30) получены на основании формул (3.24) и (3.25)).
Ковариадию часто удобно вычислять по формуле
Kxy = cov(X, У ) = MXY - MX ■ MY, (3.31)
которая получается из определения (3.28) на основании свойств математического ожидания:
Kxy = М[(Х - mx)(Y - ту)] = M{XY - Хту - Ymx + тхту) = = MXY — туМХ — mxMY + тхту = MXY ~ тхту — тхту + тхту —
= MXY - MX • MY.
Формулу (3.30) можно записать в виде
оо оо
Kxy = J J ху f(x,y)dxdy - тхту. (3.32)
|
-оо -оо
Свойства ковариащш:
1. Ковариация симметрична, т. е.
Kxy — Кух-
2. Дисперсия с. в. есть ковариация ее с самой собой, т. е.
Кхх = DX, Куу = DY.
3. Если случайные величины X и Y независимы, то
КХу = 0.
4. Дисперсия суммы (разности) двух случайных величин равна сумме их дисперсий плюс (минус) удвоенная ковариация этих случайных величин, т. е.
D{X ± Y) = DX + DY ± 2K X y.
5. Постоянный множитель можно вынести за знак ковариаций, т. е. Kcx,y = с-Kxy — Kx,cy или cov(cX, У) = ccov(X, У) = cov(X, сУ).
6. Ковариация не изменится, если к одной из с. в. (или к обоим сразу) прибавить постоянную, т. е.
Kx+c,y = Kxy = Кх,у+с = Kx+cyY+c
или
cov(X + с,У) — cov(X, У) = cov(X, Y + с) — cov(X + с, У + с).
7. Ковариация двух случайных величин по абсолютной величине не превосходит их с.к.о., т.е.
\Kxy\ ^ ' о-у
Q 1. Следует из определения (3.28) ковариации.
2. КХХ = М[(Х- тх){Х - тх)} - М{Х - тх)2 = DX.
3. Из независимости с. в. X и У следует независимость их отклонений X — тх и У — ту. Пользуясь свойствами м.о. (п. 2.5), получаем КХу = М(Х - тх) • M{Y - ту) = 0.
4. D(X + У) = М{{Х + У) - М(Х + У))2 =
= M{{X-MX)+{Y-MY))2 = M(X-MX)2+2M(X-MX)(Y~MY)+
+ М(У - MY)2 = DX + DY + 2KXy, — У) = DX + D(—Y) + 2M(X - МХ)(-У - М(-У)) =
= DX + DY- 2Kxy.
5. K cX ,y = M{cX - McX)(Y - MY) = M[c(X - MX)(Y - MY)] = = cKXY-
6. Доказывается аналогично.
г,тт ^ X -mx Y -my
7. Применяя свойство 4 к двум стандартным с. в. ——— и ———
(см. 2.5), получаем:
±2М
= 1 + 1
Любая дисперсия неотрицательна, поэтому
2 (l ± ^ 0. (3.33)
Отсюда следует, что -ахау < КХу < о^сгу, т. е. \Kxy\ ^ ■
Из свойства 3 следует, что если Kxy ф 0, то с. в. X и У зависимы. Случайные величины X и У в этом случае (Kxy ф 0) называют коррелированными. Однако из того, что Кху = 0, не следует независимость с. в. X и У. В этом случае (Кху = 0) с. в. X и У называют некоррелированными. Из независимости вытекает некоррелированность; обратное, вообще говоря, неверно.
|
Как следует из свойств ковариации, она [Кху) характеризует и степень зависимости случайных величин, и их рассеяние вокруг точки (тх,ту). Размерность ковариации равна произведению размерностей с. в. X и У. В качестве числовой характеристики зависимости (а не рассеяния) с. в. X и У берут безразмерную величину — коэффициент корреляции. Он является лучшей оценкой степени влияния одной с. в. на другую.
Коэффициентом корреляции гху двух с. в. X и У называется отношение их ковариации (корреляционного момента) к произведению их с. к. о.:
^ХY j) /о cmn |
Kxy = cov(X,Y) 7х<т у у/Ш^Ш
Очевидно, коэффициент корреляции равен ковариации стандартных
„ X -тпх Y -ТПу
с.в. Z\ = —— и Z2 = —щ—, т.е. гХу = cov(Zi,Z2).
Свойства коэффициента корреляции:
1. Коэффициент корреляции по абсолютной величине не превосходит 1, т.е.
\гХу\ < 1 или - 1 < гХу < 1.
2. Если X и У независимы, то
rxY = о.
3. Если с. в. X и У связаны линейной зависимостью, т. е. У = аХ + b, а ф 0, то
\гху \ = 1,
причем txy — 1 при а > 0, гху = —1 при а < 0.
! |
4. Если \гху \ = 1, то с. в. X и У связаны линейной функциональной зависимостью.
Q 1. Тале как \'И ^ ох • ау (свойство 7 ковариации), то
и I \К*У\ / 1
2. Kxy = 0 в случае независимости X и У. Следовательно,
_ kxy _ П rxY — а п = U.
Vx(Jy
3. Согласно свойствам ковариации, имеем
cov(X, У) = cov(X, аХ + 6) = cov(aX + 6, X) = a cov (x + x) -
= acov(X,X) =аШГ
и £>У = + Ъ) = a2DX. Поэтому
r соу(Х,У) = аДХ a ^ fl, при a > 0,
у/Шу/Ш \ПХХ-\а\-\ПХХ i°l l"1* при a < 0.
4. Пусть txy — 1. Тогда из равенства
/X-mx __ Y-my\ = / _ KKy\
^ Ox Vy) \ °х<Уу)
(см. свойство 7 ковариации) получаем
D(X-mx_Y__mA =
\ crx <7у J '
X -тх Y - ту т. е. — z= = с — постоянная. Но
(J х О у
= 0-0 = 0,
л гл X — mx Y — ту сгу
т. е. с = 0. Значит, —^ = —^—т. е. У = ~~ + тУ ПРИ
rXy = —1 получаем
Y = -тх) + ту.
Таким образом, при гХу = ±1 с. в. X и У связаны линейной функциональной зависимостью. I
Итак, для независимых случайных величин гху — 0i для линейно связанных \rXy\ = 1, а в остальных случаях —1 < rXy < 1; говорят, что с. в. связаны положительной корреляцией, если гху > 0; если
txy <0 — отрицательной корреляцией. Чем ближе jrxrj к единице, тем больше оснований считать, что X и У связаны линейной зависимостью. Отметим, что корреляционные моменты и дисперсии системы с. в. обычно задаются корреляционной матрицей:
(Кхх КХу\ \KYX Куу) |
(DX Кху\ \ dy)- |
или |
f\J Пример 3.8. Закон распределения дискретной двумерной с. в. задан таблицей:
|
Найти коэффициент корреляции гху-
X | ||
р | 0,6 | 0,4 |
и |
О Находим законы распределения составляющих X и У:
У | „1 | ||
Р | 0,35 | 0,50 | 0,15 |
Находим математическое ожидание составляющих: тх = 0-0,6 +1-0,4 = = 0,4, шу = -1 ♦ 0,35 + 0 • 0,50 + 1-0,15 = -0,20 (их можно было бы найти, используя формулу (3.20); так
тх = ^^XiPij = 0-0,15+0-0,40+0-0,05+1-0,20+1-0,10+1-0,10 = 0,4).
г=1 3=1
Находим дисперсии составляющих:
DX = [MX2 - (MX)2] = (О2 • 0,6 + I2 • 0,4) - (0,4)2 = 0,24, DY = ((-I)2 - 0,35 + О2 - 0,50 + I2 • 0,15) - (-0,20)2 = 0,46.
Стало быть: ах = лДГДЗ «0,49, ау = «0,68. Находим MXY,
используя формулу (3.26): MXY = 0 • (-1) • 0,15 + 0 • 0 • 0,40 + 0 • 1 ■ 0,05 + +1 - (-1) • 0,20 +1 • 0 • 0,10 +1-1 • 0,10 = -0,10 (можно было бы составить закон распределения Z = XY, а затем найти MZ = MXY:
Z — XY | -1 | ||
Р | 0,20 | 0,70 | 0,10 |
MZ = МХУ = -1-0,20 + 0-0,70+1-0,10 = -0,10). Находим корреляционный момент, используя формулу (3.31): Кху — [МХУ — MX ■ МУ] = = —0,10—0,4-(—0,20) = -0,10+0,08 = -0,02 ф 0. Находим коэффициент корреляции (формула (3.34)):
Кху |
-0,06, |
rXY — |
ОхОу |
-0,02 0,49 • 0,68