Знаменатель (несмещенной) оценки дисперсии равен поскольку имеется наблюдений и оценивается только один параметр.
Кроме того, мне интересно, почему знаменатель ковариации не должен быть когда оцениваются два параметра?
Знаменатель (несмещенной) оценки дисперсии равен поскольку имеется наблюдений и оценивается только один параметр.
Кроме того, мне интересно, почему знаменатель ковариации не должен быть когда оцениваются два параметра?
Ответы:
Ковариации - это дисперсии.
Так как по поляризационной идентичности
знаменатели должны быть одинаковыми.
источник
Особый случай должен дать вам интуицию; подумайте о следующем:
Вы счастливы, что последний из-за поправки Бесселя.∑ni=1(Xi−X¯¯¯¯¯)2n−1
Но заменив на X в ^ С о об ( X , Y ) для бывшей дает Е п я = 1 ( X я - ¯ X ) ( X я - ¯ X )Y X Cov^(X,Y) , так что вы думаете, что лучше всего заполнить пробел?∑ni=1(Xi−X¯¯¯¯¯)(Xi−X¯¯¯¯¯)mystery denominator
источник
Быстрый и грязный ответ ... Давайте сначала рассмотрим ; если бы у вас было n наблюдений с известным ожидаемым значением E ( X ) = 0, вы бы использовали 1var(X) n E(X)=0 для оценки дисперсии.1n∑ni=1X2i
Ожидаемое значение неизвестно, вы можете преобразовать свои наблюдений в n - 1 наблюдений с известным ожидаемым значением, взяв A i = X i - X 1 для i = 2 , … , n . Вы получите формулу с n - 1 в знаменателе - однако A i не являются независимыми, и вам придется принять это во внимание; в конце вы найдете обычную формулу.n n−1 Ai=Xi−X1 i=2,…,n n−1 Ai
Теперь для ковариации вы можете использовать ту же идею: если бы ожидаемое значение было ( 0 , 0 ) , у вас было бы 1(X,Y) (0,0) в формуле. Вычитая(X1,Y1) извсех других наблюдаемых значений, вы получаетеn-1наблюдений с известным ожидаемым значением ... и11n (X1,Y1) n−1 в формуле - еще раз, это вводит некоторую зависимость для учета.1n−1
PS Простой способ сделать это - выбрать ортонормированный базис из , то есть n - 1 векторов c 1 , … , c n - 1 ∈ R n, таких, что⟨(1,…,1)′⟩⊥ n−1 c1,…,cn−1∈Rn
Затем вы можете определить переменные A i = ∑ j c i j X j и B i = ∑ j c i j Y j . ( Я , Б я ) независимы, имеют ожидаемое значение ( 0 , 0 ) , и имеют одинаковую дисперсию / ковариации , чем исходных переменных.n−1 Ai=∑jcijXj Bi=∑jcijYj (Ai,Bi) (0,0)
Все дело в том, что если вы хотите избавиться от неизвестного ожидания, вы отбрасываете одно (и только одно) наблюдение. Это работает одинаково для обоих случаев.
источник
Вот доказательство того, что ковариационная оценка выборки p-вариатора со знаменателем - несмещенная оценка ковариационной матрицы:1n−1
.x′=(x1,...,xp)
Показать:E(S)=n−1nΣ
Доказательство:S=1n∑xix′i−x¯x¯′
Следующий:
(1)E(xix′i)=Σ+μμ′
(2)E(x¯x¯′)=1nΣ+μμ′
Therefore:E(S)=Σ+μμ′−(1nΣ+μμ′)=n−1nΣ
And soSu=nn−1S , with the final denominator 1n−1 , is unbiased. The off-diagonal elements of Su are your individual sample covariances.
Additional remarks:
The n draws are independent. This is used in (2) to calculate the covariance of the sample mean.
Step (1) and (2) use the fact thatCov(x)=E[xx′]−μμ′
Step (2) uses the fact thatCov(x¯)=1nΣ
источник
I guess one way to build intuition behind using 'n-1' and not 'n-2' is - that for calculating co-variance we do not need to de-mean both X and Y, but either of the two, i.e.
источник
1) Startdf=2n .
2) Sample covariance is proportional toΣni=1(Xi−X¯)(Yi−Y¯) . Lose two df ; one from X¯ , one from Y¯ resulting in df=2(n−1) .
3) However,Σni=1(Xi−X¯)(Yi−Y¯) only contains n separate terms, one from each product. When two numbers are multiplied together the independent information from each separate number disappears.
As a trite example, consider that
and that does not include irrationals and fractions, e.g.24=26–√∗26–√ , so that when we multiply two number series together and examine their product, all we see are the df=n−1 from one number series, as we have lost half of the original information, that is, what those two numbers were before the pair-wise grouping into one number (i.e., multiplication) was performed.
In other words, without loss of generality we can write
i.e.,zi=XiYi−X¯Yi−XiY¯ , and, z¯=X¯Y¯ . From the z 's, which then clearly have df=n−1 , the covariance formula becomes
Thus, the answer to the question is that thedf are halved by grouping.
источник
Hold
?