Дисперсия суммы равна сумме дисперсий?

62

Верно ли (всегда), что

Вaр(Σязнак равно1мИкся)знак равноΣязнак равно1мВaр(Икся)?
Abe
источник
3
Ответы ниже предоставляют доказательства. Интуицию можно увидеть в простом случае var (x + y): если x и y положительно коррелируют, оба будут стремиться быть большими / маленькими вместе, увеличивая общее изменение. Если они имеют отрицательную корреляцию, они будут стремиться компенсировать друг друга, уменьшая общее отклонение.
Асад Эбрахим

Ответы:

92

Ответ на ваш вопрос «Иногда, но не в целом».

Чтобы увидеть это, пусть - случайные величины (с конечными дисперсиями). Затем,Икс1,,,,,ИксN

vaр(Σязнак равно1NИкся)знак равноЕ([Σязнак равно1NИкся]2)-[Е(Σязнак равно1NИкся)]2

Теперь обратите внимание, что , что понятно, если вы Подумайте о том, что вы делаете, когда вычисляете вручную. Следовательно, ( 1 + . . . + П ) ( 1 + . . . + П )(Σязнак равно1Naя)2знак равноΣязнак равно1NΣJзнак равно1NaяaJ(a1+,,,+aN)(a1+,,,+aN)

Е([Σязнак равно1NИкся]2)знак равноЕ(Σязнак равно1NΣJзнак равно1NИксяИксJ)знак равноΣязнак равно1NΣJзнак равно1NЕ(ИксяИксJ)

по аналогии,

[Е(Σязнак равно1NИкся)]2знак равно[Σязнак равно1NЕ(Икся)]2знак равноΣязнак равно1NΣJзнак равно1NЕ(Икся)Е(ИксJ)

так

vaр(Σязнак равно1NИкся)знак равноΣязнак равно1NΣJзнак равно1N(Е(ИксяИксJ)-Е(Икся)Е(ИксJ))знак равноΣязнак равно1NΣJзнак равно1Nсоv(Икся,ИксJ)

по определению ковариации.

Теперь относительно того, равна ли дисперсия суммы сумме дисперсий? :

  • Если переменные некоррелированы, то да : то есть для , тогдая J V а г ( п Σ я = 1 X я ) = п Σ я = 1 п Σ J = 1 с о v ( Х я , Х J ) = п i = 1 c o v ( X i ,соv(Икся,ИксJ)знак равно0яJ

    vaр(Σязнак равно1NИкся)знак равноΣязнак равно1NΣJзнак равно1Nсоv(Икся,ИксJ)знак равноΣязнак равно1Nсоv(Икся,Икся)знак равноΣязнак равно1Nvaр(Икся)
  • Если переменные коррелированы, нет, не вообще : например, предположим, что - это две случайные переменные, каждая из которых имеет дисперсию и где . Тогда , поэтому идентификация не выполняется.Икс1,Икс2σ2соv(Икс1,Икс2)знак равноρ0<ρ<σ2vaр(Икс1+Икс2)знак равно2(σ2+ρ)2σ2

  • но это возможно для некоторых примеров : предположим, что имеют ковариационную матрицу затемИкс1,Икс2,Икс3

    (10,4-0.60,410.2-0.60.21)
    vaр(Икс1+Икс2+Икс3)знак равно3знак равноvaр(Икс1)+vaр(Икс2)+vaр(Икс3)

Поэтому , если переменные являются некоррелированными , то дисперсия суммы равна сумме дисперсий, но обратное не верно в целом.

макрос
источник
Что касается примера ковариационной матрицы, то верно следующее: симметрия между верхним правым и нижним левым треугольниками отражает тот факт, что , но симметрия между верхним левым и нижним правым (в этом случае это является лишь частью примера, но может быть заменено двумя различными числа, которые составляют например, и ? Еще раз спасибо.сОУ(Икся,ИксJ)знак равносОУ(ИксJ,Икся)сОУ(Икс1,Икс2)знак равносОУ(Икс2,Икс3)знак равно0,30.6сОУ(Икс1,Икс2)знак равноaсОУ(Икс2,Икс,3)знак равно0.6-a
Abe
41

Var(Σязнак равно1мИкся)знак равноΣязнак равно1мVar(Икся)+2Σя<JCov(Икся,ИксJ),

Таким образом, если ковариации усредняются до , что было бы следствием, если переменные попарно некоррелированы или если они независимы, то дисперсия суммы является суммой дисперсий.0

Пример, где это не так: Пусть . Пусть . Тогда .Var(Икс1)знак равно1Икс2знак равноИкс1Var(Икс1+Икс2)знак равноVar(2Икс1)знак равно4

Дуглас Заре
источник
Это редко будет верно для выборочных отклонений.
DWin
1
@DWin, «редкий» - преуменьшение: если имеют непрерывное распределение, вероятность того, что выборочная дисперсия суммы равна сумме выборочных дисперсий ровно в 0 :)Икс
Макрос
15

Я просто хотел добавить более сжатую версию доказательства, предоставленного Макро, чтобы было легче увидеть, что происходит.

Обратите внимание, что, посколькуVar(Икс)знак равноCov(Икс,Икс)

Для любых двух случайных величин имеем:Икс,Y

Var(Икс+Y)знак равноCov(Икс+Y,Икс+Y)знак равноЕ((Икс+Y)2)-Е(Икс+Y)Е(Икс+Y)расширяясь,знак равноЕ(Икс2)-(Е(Икс))2+Е(Y2)-(Е(Y))2+2(Е(ИксY)-Е(Икс)Е(Y))знак равноVar(Икс)+Var(Y)+2(Е(ИксY))-Е(Икс)Е(Y))
Поэтому, как правило, дисперсия суммы двух случайных величин не является суммой дисперсий. Однако если независимы, то , и мы имеем .Икс,YЕ(ИксY)знак равноЕ(Икс)Е(Y)Var(Икс+Y)знак равноVar(Икс)+Var(Y)

Обратите внимание, что мы можем получить результат для суммы случайных величин с помощью простой индукции.N

Омар Хак
источник