Ответы ниже предоставляют доказательства. Интуицию можно увидеть в простом случае var (x + y): если x и y положительно коррелируют, оба будут стремиться быть большими / маленькими вместе, увеличивая общее изменение. Если они имеют отрицательную корреляцию, они будут стремиться компенсировать друг друга, уменьшая общее отклонение.
Асад Эбрахим
Ответы:
92
Ответ на ваш вопрос «Иногда, но не в целом».
Чтобы увидеть это, пусть - случайные величины (с конечными дисперсиями). Затем,Икс1, . , , , XN
v a r ( ∑я = 1NИкся) = E⎛⎝[ ∑я = 1NИкся]2⎞⎠- [ E( ∑я = 1NИкся) ]2
Теперь обратите внимание, что , что понятно, если вы Подумайте о том, что вы делаете, когда вычисляете вручную. Следовательно, ( 1 + . . . + П ) ⋅ ( 1 + . . . + П )( ∑Nя = 1aя)2= ∑Nя = 1ΣNJ = 1aяaJ( а1+ . , , + аN) ⋅ ( а1+ . , , + аN)
v a r ( ∑я = 1NИкся) = ∑я = 1NΣJ = 1N( E( XяИксJ) - E( Xя) E( XJ) ) = ∑я = 1NΣJ = 1Nc o v ( Xя, XJ)
по определению ковариации.
Теперь относительно того, равна ли дисперсия суммы сумме дисперсий? :
Если переменные некоррелированы, то да : то есть для , тогдая ≠ J V а г ( п Σ я = 1 X я ) = п Σ я = 1 п Σ J = 1 с о v ( Х я , Х J ) = п ∑ i = 1 c o v ( X i ,c o v ( Xя, XJ) = 0я ≠ j
v a r ( ∑я = 1NИкся) = ∑я = 1NΣJ = 1Nc o v ( Xя, XJ) = ∑я = 1Nc o v ( Xя, Xя) = ∑я = 1Nv a r ( Xя)
Если переменные коррелированы, нет, не вообще : например, предположим, что - это две случайные переменные, каждая из которых имеет дисперсию и где . Тогда , поэтому идентификация не выполняется.Икс1, X2σ2c o v ( X1, X2) = ρ0 < ρ < σ2v a r ( X1+ X2) = 2 ( σ2+ ρ ) ≠ 2 σ2
но это возможно для некоторых примеров : предположим, что имеют ковариационную матрицу затемИкс1, X2, X3
⎛⎝⎜10,4- 0,60,410.2- 0,60.21⎞⎠⎟
v a r ( X1+ X2+ X3) = 3 = v a r ( X1) + v a r ( X2) + v a r ( X3)
Поэтому , если переменные являются некоррелированными , то дисперсия суммы равна сумме дисперсий, но обратное не верно в целом.
Что касается примера ковариационной матрицы, то верно следующее: симметрия между верхним правым и нижним левым треугольниками отражает тот факт, что , но симметрия между верхним левым и нижним правым (в этом случае это является лишь частью примера, но может быть заменено двумя различными числа, которые составляют например, и ? Еще раз спасибо.cov (Xя,XJ) = cov (X)J,Xя)закрытый ( X1, X2) = cov ( X)2, X3) = 0,30.6закрытый ( X1, X2) = азакрытый ( X2, X, 3 ) = 0,6 -
Таким образом, если ковариации усредняются до , что было бы следствием, если переменные попарно некоррелированы или если они независимы, то дисперсия суммы является суммой дисперсий.0
Пример, где это не так: Пусть . Пусть . Тогда .Вар ( Х1) = 1Икс2= X1Вар ( Х1+ X2) = Var ( 2 X1) = 4
@DWin, «редкий» - преуменьшение: если имеют непрерывное распределение, вероятность того, что выборочная дисперсия суммы равна сумме выборочных дисперсий ровно в 0 :)Икс
Макрос
15
Я просто хотел добавить более сжатую версию доказательства, предоставленного Макро, чтобы было легче увидеть, что происходит.
Поэтому, как правило, дисперсия суммы двух случайных величин не является суммой дисперсий. Однако если независимы, то , и мы имеем .Икс, YЕ( XY) = E( X) E( Y)Вар ( Х+ Y) = Var ( X) + Var ( Y)
Обратите внимание, что мы можем получить результат для суммы случайных величин с помощью простой индукции.N
Ответы:
Ответ на ваш вопрос «Иногда, но не в целом».
Чтобы увидеть это, пусть - случайные величины (с конечными дисперсиями). Затем,Икс1, . , , , XN
Теперь обратите внимание, что , что понятно, если вы Подумайте о том, что вы делаете, когда вычисляете вручную. Следовательно, ( 1 + . . . + П ) ⋅ ( 1 + . . . + П )( ∑Nя = 1aя)2= ∑Nя = 1ΣNJ = 1aяaJ ( а1+ . , , + аN) ⋅ ( а1+ . , , + аN)
по аналогии,
так
по определению ковариации.
Теперь относительно того, равна ли дисперсия суммы сумме дисперсий? :
Если переменные некоррелированы, то да : то есть для , тогдая ≠ J V а г ( п Σ я = 1 X я ) = п Σ я = 1 п Σ J = 1 с о v ( Х я , Х J ) = п ∑ i = 1 c o v ( X i ,c o v ( Xя, XJ) = 0 я ≠ j
Если переменные коррелированы, нет, не вообще : например, предположим, что - это две случайные переменные, каждая из которых имеет дисперсию и где . Тогда , поэтому идентификация не выполняется.Икс1, X2 σ2 c o v ( X1, X2) = ρ 0 < ρ < σ2 v a r ( X1+ X2) = 2 ( σ2+ ρ ) ≠ 2 σ2
но это возможно для некоторых примеров : предположим, что имеют ковариационную матрицу затемИкс1, X2, X3
Поэтому , если переменные являются некоррелированными , то дисперсия суммы равна сумме дисперсий, но обратное не верно в целом.
источник
Таким образом, если ковариации усредняются до , что было бы следствием, если переменные попарно некоррелированы или если они независимы, то дисперсия суммы является суммой дисперсий.0
Пример, где это не так: Пусть . Пусть . Тогда .Вар ( Х1) = 1 Икс2= X1 Вар ( Х1+ X2) = Var ( 2 X1) = 4
источник
Я просто хотел добавить более сжатую версию доказательства, предоставленного Макро, чтобы было легче увидеть, что происходит.
Обратите внимание, что, посколькуВар ( Х) = Cov ( X, X)
Для любых двух случайных величин имеем:Икс, Y
Обратите внимание, что мы можем получить результат для суммы случайных величин с помощью простой индукции.N
источник
Да, если каждая пара некоррелирована, это правда.Икся
Смотрите объяснение в Википедии
источник