Ссылка на сумму и разность высококоррелированных переменных, почти не коррелированных

11

В статье, которую я написал, я моделирую случайные величины и а не и чтобы эффективно устранить проблемы, возникающие, когда и сильно коррелированы и имеют одинаковую дисперсию (как в моем приложении). Судьи хотят, чтобы я дал ссылку. Я мог бы легко доказать это, но, будучи журналом приложений, они предпочитают ссылку на простой математический вывод.X - Y X Y X YX+YXYXYXY

У кого-нибудь есть предложения по подходящей ссылке? Я думал, что в книге Тьюки (1977) есть что-то о суммах и различиях, но я не могу найти это.

Роб Хиндман
источник
В Википедии есть ссылка на учебник по адресу en.wikipedia.org/wiki/… ; не уверен, что это помогает ...
shabbychef
4
И доказательство действительно более чем тривиально с равными дисперсиями :( ... Удачи, Роб.Cov(X+Y,XY)=E((XμX)+(YμY))((XμX)(YμY))=VarXVarY=0
Дмитрий Челов
2
Тьюки ничего не доказывает в EDA: он продолжает пример. Пример рассмотрения сравнению с см. В Приложении 3 главы 14, с. 473 (обсуждение начинается на стр. 470). у - хy+xyx
whuber
1
Один из альтернативных способов обойти необходимость предоставления ссылки. Вы можете рассматривать это как моделирование основных компонентов ваших данных , а не отдельных переменных. Это было бы легким делом , чтобы обеспечить ссылку наX,Y
probabilityislogic

Ответы:

3

Я бы сослался на Seber GAF (1977), анализ линейной регрессии. Вилли, Нью-Йорк. Теорема 1.4.

Это говорит .cov(AX,BY)=Acov(X,Y)B

Возьмите = (1 1) и = (1 -1) и = = вектор с вашими X и Y.B X YABXY

Обратите внимание, что для того, чтобы иметь , важно, чтобы X и Y имели одинаковые отклонения. Если , будет большим.var ( X ) var ( Y ) cov ( X + Y , X - Y )cov(X+Y,XY)0var(X)var(Y)cov(X+Y,XY)

Карл
источник
1
Чтобы и были некоррелированными (или почти некоррелированными), нам не нужно, чтобы было равно или почти : нам нужен коэффициент корреляции Пирсона чтобы или почти . Z cov ( W , Z ) 0 0 ρ W , Z 0 0WZcov(W,Z)00ρW,Z00
Дилип Сарвэйт