Меня интересует, является ли "корреляция" трех переменных чем-то, и если что, что бы это было?
Коэффициент корреляции моментов произведения Пирсона
Теперь вопрос для 3 переменных:
что-нибудь?
В R это выглядит как нечто интерпретируемое:
> a <- rnorm(100); b <- rnorm(100); c <- rnorm(100)
> mean((a-mean(a)) * (b-mean(b)) * (c-mean(c))) / (sd(a) * sd(b) * sd(c))
[1] -0.3476942
Мы обычно смотрим на корреляцию между 2 переменными при фиксированном значении третьей переменной. Может кто-нибудь уточнить?
correlation
pearson-r
PascalVKooten
источник
источник
Ответы:
Это является действительно что - то. Чтобы выяснить это, нам нужно изучить то, что мы знаем о самой корреляции.
Корреляционная матрица векторнозначной случайной величины являются ковариационной матрицей, или просто «дисперсии» стандартизированной версии X . Таким образом, каждый X i заменяется своей измененной версией, измененной в масштабе.X=(X1,X2,…,Xp) X Xi
Ковариация и X j является ожиданием произведения их центрированных версий. То есть, записывая X ′ i = X i - E [ X i ] и X ′ j = X j - E [ X j ] , мы имеемXi Xj X′i=Xi−E[Xi] X′j=Xj−E[Xj]
Дисперсия , которую я напишу Var ( X ) , не является одним числом. Это массив значений Var ( X ) i j = Cov ( X i , X j ) .X Var(X)
Способ думать о ковариации для намеченного обобщения состоит в том, чтобы считать это тензор . Это означает, что это целый набор величин , проиндексированных i и j в диапазоне от 1 до p , значения которых изменяются особенно простым предсказуемым образом, когда X подвергается линейному преобразованию. В частности, пусть Y = ( Y 1 , Y 2 , … , Y q ) будет другой векторной случайной величиной, определенной какvij i j 1 p X Y=(Y1,Y2,…,Yq)
Константы (iиj-индексы-jне является степенью) образуютмассивq×pA=(aaji i j j q×p ,j=1,…,pиi=1,…,q. Линейность ожидания подразумеваетA=(aji) j=1,…,p i=1,…,q
В матричной записи
Все компоненты самом деле являются одномерными дисперсиями из-за поляризационной идентичностиVar(X)
Это говорит нам о том, что если вы понимаете дисперсии одномерных случайных величин, вы уже понимаете ковариации двумерных переменных: они являются «просто» линейными комбинациями дисперсий.
Выражение в вопросе совершенно аналогично: переменные были стандартизированы, как в ( 1 ) . Мы можем понять, что это представляет, рассматривая, что это означает для любой переменной, стандартизированной или нет. Мы заменили бы каждый X i его центрированной версией, как в ( 2 ) , и сформировали бы величины, имеющие три индекса,Xi (1) Xi (2)
Это центральные (многомерные) моменты степени3 . Как и в , они образуют тензор: когда Y = A X , то(4) Y=AX
Индексы в этой тройной сумме варьируются по всем комбинациям целых чисел от до p .1 p
Аналог поляризационной идентичности
С правой стороны, относится к (одномерному) центральному третьему моменту: ожидаемое значение куба центрированной переменной. Когда переменные стандартизированы, этот момент обычно называют асимметричным . Соответственно, мы можем думать о ц 3 ( X ) как являющийся многомерный перекос из X . Это тензор ранга три (то есть с тремя индексами), значения которого являются линейными комбинациями асимметрии различных сумм и разностей X i . Если бы мы должны были искать интерпретации, то мы думаем об этих компонентах в качестве средств измерения в рμ3 μ3(X) X Xi p Размеры независимо от того, измеряется асимметрия в одном измерении. Во многих случаях,
Первые моменты измеряют местоположение распределения;
Вторые моменты (матрица дисперсии-ковариации) измеряют ее разброс ;
Стандартизированные вторые моменты (корреляции) показывают, как разброс изменяется в мерном пространстве; иp
Стандартизированные третий и четвертый моменты взяты, чтобы измерить форму распределения относительно его распространения.
Ссылка
Алан Стюарт и Дж. Кит Орд, Продвинутая теория статистики Кендалла, пятое издание, том 1: теория распределения ; Глава 3, Моменты и кумулянты . Издательство Оксфордского университета (1987).
Appendix: Proof of the Polarization Identity
Letx1,…,xn be algebraic variables. There are 2n ways to add and subtract all n of them. When we raise each of these sums-and-differences to the nth power, pick a suitable sign for each of those results, and add them up, we will get a multiple of x1x2⋯xn .
More formally, letS={1,−1}n be the set of all n -tuples of ±1 , so that any element s∈S is a vector s=(s1,s2,…,sn) whose coefficients are all ±1 . The claim is
Indeed, the Multinomial Theorem states that the coefficient of the monomialxi11xi22⋯xinn (where the ij are nonnegative integers summing to n ) in the expansion of any term on the right hand side is
In the sum(1) , the coefficients involving xi11 appear in pairs where one of each pair involves the case s1=1 , with coefficient proportional to s1 times si11 , equal to 1 , and the other of each pair involves the case s1=−1 , with coefficient proportional to −1 times (−1)i1 , equal to (−1)i1+1 . They cancel in the sum whenever i1+1 is odd. The same argument applies to i2,…,in . Consequently, the only monomials that occur with nonzero coefficients must have odd powers of all the xi . The only such monomial is x1x2⋯xn . It appears with coefficient (n1,1,…,1)=n! in all 2n terms of the sum. Consequently its coefficient is 2nn! , QED.
We need take only half of each pair associated withx1 : that is, we can restrict the right hand side of (1) to the terms with s1=1 and halve the coefficient on the left hand side to 2n−1n! . That gives precisely the two versions of the Polarization Identity quoted in this answer for the cases n=2 and n=3 : 22−12!=4 and 23−13!=24 .
Of course the Polarization Identity for algebraic variables immediately implies it for random variables: let eachxi be a random variable Xi . Take expectations of both sides. The result follows by linearity of expectation.
источник
Hmmm. If we run...
it does seem to center on 0 (I haven't done a real simulation), but as @ttnphns alludes, running this (all variables the same)
also seems to center on 0, which certainly makes me wonder what use this could be.
источник
sd
or variance is a function of squaring, as is covariance. But with 3 variables, cubing occurs in the numerator while denominator remains based on originally squared termsIf You need to calculate "correlation" between three or more variables, you could not use Pearson, as in this case it will be different for different order of variables have a look here. If you are interesting in linear dependency, or how well they are fitted by 3D line, you may use PCA, obtain explained variance for first PC, permute your data and find probability, that this value may be to to random reasons. I've discuss something similar here (see Technical details below).
Matlab code
источник