Какова связь между ортогональностью, корреляцией и независимостью?

25

Я прочитал статью, в которой говорится, что при использовании запланированных контрастов для поиска средств, которые отличаются однонаправленным ANOVA, контрасты должны быть ортогональными, чтобы они были некоррелированными и не допускали раздувания ошибки I типа.

Я не понимаю, почему ортогональность будет означать некоррелированные при любых обстоятельствах. Я не могу найти визуальное / интуитивное объяснение этого, поэтому я попытался понять эти статьи / ответы

https://www.psych.umn.edu/faculty/waller/classes/FA2010/Readings/rodgers.pdf

Что означает ортогональность в контексте статистики?

но для меня они противоречат друг другу. Первый говорит, что если две переменные некоррелированы и / или ортогональны, то они линейно независимы, но тот факт, что они линейно независимы, не означает, что они некоррелированы и / или ортогональны.

Теперь по второй ссылке есть ответы, в которых говорится, что «ортогональные означает некоррелированные» и «Если X и Y независимы, то они ортогональны. Но обратное неверно».

Другой интересный комментарий во второй ссылке утверждает, что коэффициент корреляции между двумя переменными равен косинусу угла между двумя векторами, соответствующими этим переменным, что подразумевает, что два ортогональных вектора полностью некоррелированы (что не является первой статьей претензии).

Так какова истинная связь между независимостью, ортогональностью и корреляцией? Может быть, я что-то пропустил, но не могу понять, что это.

Карл Левассер
источник
1
Не удовлетворяет ли вас ни один из ответов на вопросы, обозначенные как «Связанные» и «Связанные» справа от этого вопроса?
Дилип Сарвейт
2
Представленные мной две ссылки дают четкие ответы, но указывают на разные вещи, и когда я смотрю на связанные вопросы, я вижу, что люди, дающие ответы, далеки от согласия друг с другом
Карл Левассер,
2
Путаница / воспринимаемое противоречие может быть полностью связано с различием между линейной независимостью и статистической независимостью.
января
1
Я думаю, что (ANOVA) контрасты должны быть ортогональными - это жизненно важный аспект этого вопроса: речь идет не только о случайных переменных. Существует также дополнительный акцент на «независимость» по сравнению с тесно связанным вопросом, который Сиань предложил в качестве возможного дубликата (в этом вопросе ФП заявил, что они понимают «независимость», так что в ответах это воспринималось как должное). Так что я полагаю, что это не дубликат, и, во-вторых, @jona, что путаница вполне может быть заключена во множество значений «независимости».
Серебряная
1
Я также считаю, что это не дубликат. Этот вопрос не относится к корреляции, и ответ не детализирует возможную разницу между ортогональностью и некоррелированностью. Более того, как указывал автор, существуют противоречивые ответы на различные связанные вопросы.
А. Донда

Ответы:

39

Независимость - это статистическая концепция. Две случайные величины и Y являются статистически независимыми, если их совместное распределение является произведением маргинальных распределений, т.е. f ( x , y ) = f ( x ) f ( y ), если каждая переменная имеет плотность f , или, в более общем случае, F ( х , у ) = F ( х ) F ( у ) где FXY

f(x,y)=f(x)f(y)
f
F(x,y)=F(x)F(y)
F обозначает кумулятивную функцию распределения каждой случайной величины.

ρ=E[XE[X]E[(XE[X])2]YE[Y]E[(YE[Y])2]].
ρ=0

uvu,v

u,v=0.
u=(u1,u2,un)u,v=i=1nuivi

Ортогональность, следовательно, не является статистическим понятием как таковым, и наблюдаемая вами путаница, вероятно, обусловлена ​​различными переводами понятия линейной алгебры в статистику:

X,Y=cov(X,Y)=E[(XE[X])(YE[Y])].
Поскольку корреляция двух случайных величин равна нулю точно, если ковариация равна нулю, согласно этому определению некоррелированность такая же, как ортогональность. (Другая возможность состоит в том, чтобы определить внутреннее произведение случайных величин просто как ожидаемое произведение .)

б) Не все переменные, которые мы рассматриваем в статистике, являются случайными. Особенно в линейной регрессии, у нас есть независимые переменные, которые не считаются случайными, но предопределены. Независимые переменные обычно задаются в виде последовательностей чисел, для которых ортогональность естественным образом определяется скалярным произведением (см. Выше). Затем мы можем исследовать статистические последствия регрессионных моделей, где независимые переменные являются или не являются ортогональными. В этом контексте ортогональность не имеет конкретно статистического определения, а тем более: она не распространяется на случайные величины.

Дополнение в ответ на комментарий Silverfish : Ортогональность важна не только по отношению к исходным регрессорам, но и по отношению к контрастам, потому что (наборы) простых контрастов (определяемых векторами контрастности) могут рассматриваться как преобразования матрицы проекта, то есть набора независимых переменных, в новый набор независимых переменных. Ортогональность для контрастов определяется через скалярное произведение. Если исходные регрессоры взаимно ортогональны и один применяет ортогональные контрасты, новые регрессоры также взаимно ортогональны. Это гарантирует, что набор контрастов можно рассматривать как описание разложения дисперсии, например, на основные эффекты и взаимодействия, идею, лежащую в основе ANOVA .

Поскольку в соответствии с вариантом а) некоррелированность и ортогональность - это просто разные названия одной и той же вещи, на мой взгляд, лучше избегать использования термина в этом смысле. Если мы хотим поговорить о некоррелированности случайных величин, скажем так, а не усложняем ситуацию, используя другое слово с другим фоном и другими значениями. Это также освобождает термин ортогональность для использования в соответствии с вариантом b), что очень полезно, особенно при обсуждении множественной регрессии. И наоборот, нам следует избегать применения термина корреляции к независимым переменным, поскольку они не являются случайными переменными.


r

Я разбросал ссылки на ответы на два связанных вопроса по всему тексту выше, что должно помочь вам поместить их в контекст этого ответа.

А. Донда
источник
1
+1 Различия, которые вы здесь делаете, очень понятны и полезны - мне понравилось читать весь пост.
whuber
+1 Мне понравилось, как вы сплели другие ответы, которые в противном случае могли бы показаться противоречивыми. Возможно, в части (б) было бы неплохо упомянуть кое-что конкретно о экспериментальном дизайне или ANOVA (поскольку это было упомянуто в вопросе OP) - в контексте вашего ответа не сразу очевидно, почему «ортогональность» может быть интересной или действительно желательное свойство независимой переменной.
Серебряная
@ Silverfish, ты прав, я постараюсь добавить это.
А. Донда
2
XYF()F(x)F(y)XYF()F(x)F(y)xy
FX,Y(x,y)=FX(x)FY(y) for all x and y,<x,y<.
2
@DilipSarwate, PUH-лиз ...
А. Donda
0

Вот мое интуитивное представление: утверждение, что x и y некоррелированы / ортогональны, являются обоими способами сказать, что знание значения x или y не позволяет прогнозировать другое - x и y не зависят друг от друга - при условии, что что любые отношения являются линейными.

Коэффициент корреляции показывает, насколько хорошо знание x (или y) позволяет нам прогнозировать y (или x). Предполагая линейные отношения.

В плоскости вектор вдоль оси X можно изменять по величине, не изменяя его компонент вдоль оси Y - оси X и Y ортогональны, а вектор вдоль X ортогонален любому вдоль Y. Варьируя величину вектора не вдоль X, изменятся компоненты X и Y. Вектор больше не ортогонален Y.

Если две переменные некоррелированы, они ортогональны, а если две переменные ортогональны, они некоррелированы. Корреляция и ортогональность - это просто разные, хотя и эквивалентные - алгебраические и геометрические - способы выражения понятия линейной независимости. В качестве аналогии рассмотрим решение пары линейных уравнений от двух переменных путем построения графика (геометрический) и определителей (алгебраический).

Что касается предположения о линейности - пусть x будет временем, y будет синусоидальной функцией. В течение одного периода x и y являются ортогональными и некоррелированными, используя обычные средства для вычисления обоих. Однако знание x позволяет нам точно предсказать y. Линейность является ключевым аспектом корреляции и ортогональности.

Хотя это и не часть вопроса, я отмечаю, что корреляция и неортогональность не равняются причинности. x и y могут быть коррелированы, потому что они оба имеют некоторую, возможно скрытую, зависимость от третьей переменной. Летом потребление мороженого возрастает, летом люди чаще ходят на пляж. Два взаимосвязаны, но ни один не «вызывает» другого. См. Https://en.wikipedia.org/wiki/Correlation_does_not_imply_causation для получения дополнительной информации по этому вопросу.

Джеймс Р. Матей
источник
Некорреляция и ортогональность - это разные вещи. Вы можете проверить это здесь - terpconnect.umd.edu/~bmomen/BIOM621/LineardepCorrOrthogonal.pdf
Юрий
0

Вот соотношение: если X и Y некоррелированы, то XE [X] ортогонально YE [Y].

В отличие от того, что независимое является более сильным понятием некоррелированного, то есть независимое приведет к некоррелированному, (не) ортогональному и (не) коррелированному может произойти одновременно. пример

В этом семестре я веду оценку вероятности, поэтому снимаю небольшое видео о независимости, корреляции, ортогональности.

https://youtu.be/s5lCl3aQ_A4

Надеюсь, это поможет.

Линан Хуан
источник
Это не отвечает на вопрос.
Майкл Р. Черник
Я пересматриваю ответ, надеюсь, это поможет ~ @ Майкл Черник
Лин Хуан
@linanhuang Люди из Ларкс?
ЯХХ