Проверенное временем напоминание в статистике «некоррелированность не означает независимость». Обычно это напоминание дополняется психологически успокаивающим (и с научной точки зрения правильным) утверждением «когда, тем не менее, две переменные совместно распределены нормально , тогда некоррелированность подразумевает независимость».
Я могу увеличить количество счастливых исключений с одного до двух: когда две переменные распределены по Бернулли , опять же, некоррелированность подразумевает независимость. Если и Y два Bermoulli с.в., Х ~ В ( д х ) , , для которого мы имеем P ( X = 1 ) = E ( X ) = q x , и аналогично для Y их ковариация равна
Для некоррелированности мы требуем, чтобы ковариация была равна нулю, поэтому
это условие, которое также необходимо для того, чтобы переменные были независимыми.
Поэтому мой вопрос: знаете ли вы какие-либо другие распределения (непрерывные или дискретные), для которых некоррелированность подразумевает независимость?
Значение: предположим, что две случайные величины имеют предельные распределения, которые принадлежат одному и тому же распределению (возможно, с разными значениями для параметров распределения), но, скажем, с той же поддержкой, например. две экспоненты, две треугольники и т. д. Все ли решения уравнения Cov ( X , Y ) = 0 таковы, что они также подразумевают независимость в силу формы / свойств участвующих функций распределения? Так обстоит дело с нормальными маргиналами (учитывая также, что они имеют двумерное нормальное распределение), а также с маргинальными частями Бернулли - есть ли другие случаи?
Мотивация здесь заключается в том, что обычно легче проверить, равна ли ковариация нулю, по сравнению с проверкой, имеет ли место независимость. Так что, если, учитывая теоретическое распределение, проверяя ковариацию, вы также проверяете независимость (как в случае с Бернулли или обычным случаем), тогда это было бы полезно знать.
Если нам дают две выборки из двух rv, которые имеют нормальные маргиналы, мы знаем, что если мы можем статистически сделать вывод из выборок, что их ковариация равна нулю, мы также можем сказать, что они независимы (но только потому, что они имеют нормальные маргиналы). Было бы полезно узнать, можем ли мы заключить аналогичным образом в тех случаях, когда два rv имели маргиналы, которые принадлежали некоторому другому распределению.
источник
Ответы:
«Тем не менее, если две переменные нормально распределены, то некоррелированность подразумевает независимость» - очень распространенная ошибка .
Это применимо только в том случае, если они совместно распространяются нормально.
Контрпример, который я видел чаще всего, это обычный и независимый Радемахер Y (так что это 1 или -1 с вероятностью 0,5 каждый); тогда Z = X Y также является нормальным (ясно из рассмотрения его функции распределения), Cov ( X , Z ) = 0 (здесь проблема состоит в том, чтобы показать E ( X Z ) = 0, например, путем итерации ожидания по Y и отметив, что X Z является X 2Икс∼ N( 0 , 1 ) Y Z= ХY Cov( Х, Z) = 0 E (XZ) = 0 Y ИксZ Икс2 или с вероятностью 0,5 каждый) и ясно, что переменные являются зависимыми (например, если я знаю X > 2, то либо Z > 2, либо Z < - 2 , поэтому информация о X дает мне информацию о Z ). - Х2 Икс> 2 Z> 2 Z< - 2 Икс Z
Также следует иметь в виду, что предельные распределения не определяют однозначно совместное распределение. Возьмем любые два реальных RV и Y с маргинальными CDF F X ( x ) и G Y ( y ) . Тогда для любого α < 1 функция:Икс Y FИкс( х ) граммY( у) α < 1
будет двумерным CDF. (Чтобы получить маргинальное значение из H X , Y ( x , y ) возьмите предел по мере того, как y уходит в бесконечность, где F Y ( y ) = 1. Обратно для Y. ) Очевидно, выбирая различные значения из α вы можете получить различные совместные распределения!FИкс( х ) ЧАСИкс, Y( х , у) Y FY( у) = 1 Y α
источник