Я надеялся, что кто-то может предложить аргумент, объясняющий, почему случайные величины и , имеющие стандартное нормальное распределение, являются статистически независимыми. Доказательство этого факта легко следует из техники MGF, но я нахожу ее крайне нелогичной.
Поэтому я был бы признателен за интуицию здесь, если таковая имеется.
Заранее спасибо.
РЕДАКТИРОВАТЬ : подписки не указывают статистику заказа, но наблюдения IID из стандартного нормального распределения.
Ответы:
Это стандартные нормальные распределенные данные: обратите внимание, что распределение является циркулярно-симметричным.
Когда вы переключаетесь на и Y 2 = X 1 + X 2 , вы эффективно вращаете и масштабируете ось, например, так: эта новая система координат имеет то же начало, что и исходная, и ось ортогональны. Из-за циркулярной симметрии переменные все еще независимы в новой системе координат.Y1=X2−X1 Y2=X1+X2
источник
Результат работает для совместно нормального (т.е. с корреляцией, - 1 < ρ < 1 ), с общим σ .(X1,X2) −1<ρ<1 σ
Если вы знаете несколько основных результатов, это все, что вам нужно:
Подход dobiwan по существу хорош - просто результат более общий, чем рассматриваемый случай.
источник
В результате вы утверждаете, правда , не верно в общем, даже не для случая , когда все , что известно, что и XX1 являются нормальными случайными переменными с одинаковой дисперсией, но результатдействительно подходитдляобычнойинтерпретации условия Вы заявили позже:X2
Обычная интерпретация последних нескольких слов в этом утверждении, конечно, состоит в том, что и X 2X1 X2 являются независимыми
(нормальными) случайными величинами и, следовательно, совместно являются нормальными случайными величинами.
Что вообще можно сказать? Во всем, что я говорю ниже, имейте в виду, чтоX и имеют одинаковую дисперсию , независимо от того, какие другие свойства могут быть им приписаны.Y
Если и Y - любые случайные величины (примечание: не обязательно нормальные) с одинаковой дисперсией, то X + Y и X - Y - некоррелированные случайные величины (то есть они имеют нулевую ковариацию). Это потому, что ковариационная функция является билинейной : cov ( X + YX Y X+Y X−Y
источник
I first argue for general identically distributedX1,X2 that the conditional mean of Y1 conditional on Y2 is constant 0 . Based on this, I argue that the covariance of Y1,Y2 is 0. Then, under normality, zero covariance implies independence.
The conditional mean
Intuition:X1+X2=y does not imply anything about which component contributed more to the sum (e.g., X1=x,X2=y−x is as likely as X1=y−x,X2=x ). Thus, the expected difference must be 0.
Proof:X1 and X2 have identical distribution and X1+X2 is symmetric with respect to the indexing. Thus, for symmetry reasons, the conditional distribution X1∣Y2=y must be equal to the conditional distribution X2∣Y2=y . Hence, the conditional distributions also have the same mean, and
(Caveat: I did not consider the possibility that the conditional mean might not exist.)
Constant conditional mean implies zero correlation/covariance
Intuition: correlation measures how muchY1 tends to increase when Y2 increases. If observing Y2 never changes our mean of Y1 , Y1 and Y2 are uncorrelated.
Proof: By definition, covariance is
Independence
Just by assuming identical distributions forX1,X2 , it was shown that Y1 and Y2 are uncorrelated. When X1,X2 are jointly normal (for example, iid. normal as in the question), their linear combinations Y1,Y2 are also jointly normal and thus uncorrelatedness implies independence.
источник