Корреляция случайных величин — различия между версиями
(→Свойства корреляции) |
(→Свойства корреляции) |
||
| Строка 24: | Строка 24: | ||
|proof= | |proof= | ||
| − | Для доказательства | + | Для доказательства будем использовать свойство [[Ковариация_случайных_величин|ковариации]]: |
| + | |||
<tex>Cov^2(\eta, \xi) \le \sigma_\eta ^2\sigma_\xi ^2</tex> | <tex>Cov^2(\eta, \xi) \le \sigma_\eta ^2\sigma_\xi ^2</tex> | ||
| − | |||
| − | + | Если правая часть не равна <tex>0</tex>, то приходим к следующему неравенству: | |
| + | |||
| + | <tex dpi = "150"> {Cov^2(\eta,\xi)\over(\sigma_\eta ^2\sigma_\xi ^2)} \le 1</tex> | ||
<tex>Corr^2(\eta,\xi) \le 1</tex> | <tex>Corr^2(\eta,\xi) \le 1</tex> | ||
| Строка 41: | Строка 43: | ||
|proof= | |proof= | ||
| − | Для доказательства | + | Для доказательства будем использовать доказательство свойства [[Ковариация_случайных_величин|ковариации]]. |
| − | Так как | + | Так как <tex> Corr(\eta, \xi) = \pm 1 </tex>, т.е. <tex>Cov^2(\eta,\xi) = \sigma_\eta ^2\sigma_\xi ^2</tex> |
| − | |||
| − | |||
| − | + | Получаем, что в неравенстве <tex>\sigma_\xi ^2t^2+2Cov(\eta,\xi)t+\sigma_\eta ^2 \ge 0</tex> должно выполняться равенство, что возможно только при нулевом дискриминанте. То есть будет единственный корень <tex> t_0 </tex>. | |
| − | |||
| − | + | Из этого следует, что <tex> E((\xi-E\xi +t_0 \eta - t_0 E\eta))=E((V + t_0 W)^2) = 0 </tex> | |
| + | |||
| + | Это возможно только тогда, когда <tex> \xi-E\xi +t_0 \eta - t_0 E\eta = 0</tex>; | ||
| + | |||
| + | Видим, что <tex>\eta</tex> и <tex>\xi</tex> линейно зависимы. | ||
}} | }} | ||
| Строка 57: | Строка 60: | ||
|proof= | |proof= | ||
| − | Предположим <tex>\xi = k \eta + b</tex>. | + | Предположим, что <tex>\xi = k \eta + b</tex>. |
| − | + | Тогда мы имеем <tex>E\xi=kE\eta + b</tex> | |
| + | |||
<tex> Cov(\eta, \xi) = E((\eta - E\eta)(\xi - E\xi))=kE((\eta-E\eta)^2)=k\sigma_\eta ^2 </tex>. | <tex> Cov(\eta, \xi) = E((\eta - E\eta)(\xi - E\xi))=kE((\eta-E\eta)^2)=k\sigma_\eta ^2 </tex>. | ||
| − | + | По свойству дисперсии <tex> \sigma_\xi ^2 = D[\xi] = E((\xi-E\xi)^2)= k^2 E((\eta-E\eta)^2)= k^2 \sigma_\eta ^2 </tex> | |
| − | <tex> \sigma_\xi ^2 = D[\xi] = E((\xi-E\xi)^2)= k^2 E((\eta-E\eta)^2)= k^2 \sigma_\eta ^2 </tex> | ||
| − | + | Получаем, что | |
<tex dpi = "150">Corr(\eta, \xi)= {Cov(\eta, \xi)\over \sigma_\eta \sigma_\xi}={k\over |k|}</tex>, | <tex dpi = "150">Corr(\eta, \xi)= {Cov(\eta, \xi)\over \sigma_\eta \sigma_\xi}={k\over |k|}</tex>, | ||
| − | + | что и требовалось доказать. | |
}} | }} | ||
{{Утверждение | {{Утверждение | ||
|statement= | |statement= | ||
| − | Если <tex>\eta,\xi</tex> независимые случайные величины, то | + | Если <tex>\eta,\xi</tex> независимые случайные величины, то <tex>Corr(\eta,\xi) = 0</tex>. |
| − | |||
|proof= | |proof= | ||
Пусть <tex>\eta</tex> и <tex>\xi</tex> - [[Независимые_случайные_величины|независимые величины]]. Тогда <tex>E(\eta \times \xi)=E(\eta) \times E(\xi)</tex>, где <tex>E</tex> - их [[Математическое_ожидание_случайной_величины|математическое ожидание]]. Получаем: | Пусть <tex>\eta</tex> и <tex>\xi</tex> - [[Независимые_случайные_величины|независимые величины]]. Тогда <tex>E(\eta \times \xi)=E(\eta) \times E(\xi)</tex>, где <tex>E</tex> - их [[Математическое_ожидание_случайной_величины|математическое ожидание]]. Получаем: | ||
Версия 01:08, 13 января 2013
Содержание
Определение
| Определение: |
Корреляция случайных величин: пусть — две случайные величины, определённые на одном и том же вероятностном пространстве. Тогда их корреляция определяется следующим образом:
|
Вычисление
Заметим, что
Свойства корреляции
| Утверждение: |
Корреляция симметрична:
|
|
|
| Утверждение: |
Корреляция лежит на отрезке : |
|
Для доказательства будем использовать свойство ковариации:
Если правая часть не равна , то приходим к следующему неравенству:
|
| Утверждение: |
Если , то и линейно зависимы |
|
Для доказательства будем использовать доказательство свойства ковариации. Так как , т.е. Получаем, что в неравенстве должно выполняться равенство, что возможно только при нулевом дискриминанте. То есть будет единственный корень . Из этого следует, что Это возможно только тогда, когда ; Видим, что и линейно зависимы. |
| Утверждение: |
Если и линейно зависимы, то . |
|
Предположим, что . Тогда мы имеем . По свойству дисперсии Получаем, что , что и требовалось доказать. |
| Утверждение: |
Если независимые случайные величины, то . |
|
Пусть и - независимые величины. Тогда , где - их математическое ожидание. Получаем: Но обратное неверно: Пусть - случайная величина, распределенная симметрично около 0, а . , но и - зависимые величины. |
Примеры
В общем смысле корреляция - это зависимость между случайными величинами, когда изменение одной влечет изменение распределения другой.
Определение корреляции по диаграмме
1. Соответственно, на первом графике изображена положительная корреляция, когда увеличение Y ведет к постепенному увеличению X.
2. Второй график отображает отрицательную корреляцию, когда увеличение X воздействует на постепенное уменьшение Y.
3. Третий график показывает, что X и Y связаны слабо, их распределение не зависит от изменения друг друга, поэтому корреляция между ними будет равна 0.
Определение корреляции по таблице
Рассмотрим 2 случайные величины: курс акций нефтедобывающей компании (X) и цены на нефть (Y).
| X | 2003,6 | 2013,2 | 2007,6 | 2007,4 | 2039,9 | 2025 | 2007 | 2017 | 2015,6 | 2011 |
|---|---|---|---|---|---|---|---|---|---|---|
| Y | 108,4 | 107,96 | 108,88 | 110,44 | 110,2 | 108,97 | 109,15 | 108,8 | 111,2 | 110,23 |
Для упрощения вычислений определим X и Y как равновероятные случайные величины. Тогда их математическое ожидание и дисперсию легко посчитать:
Используя формулу, определяем, что корреляция между величинами X и Y составляет 0,240935496, т.е. 24%.
