Мне было интересно, может ли кто-нибудь указать мне некоторые ссылки, которые обсуждают интерпретацию элементов обратной ковариационной матрицы, также известной как матрица концентрации или прецизионная матрица.
У меня есть доступ к многовариантным зависимостям Кокса и Вермута , но мне нужна интерпретация каждого элемента в обратной матрице. Википедия утверждает : «Элементы матрицы точности имеют интерпретацию с точки зрения частичных корреляций и частичных дисперсий», что приводит меня к этой странице. Есть ли интерпретация без использования линейной регрессии? IE, с точки зрения ковариаций или геометрии?
interpretation
covariance-matrix
Винь Нгуен
источник
источник
Ответы:
Есть в основном две вещи, которые нужно сказать. Во-первых, если вы посмотрите на плотность для многомерного нормального распределения (со средним значением 0 здесь), оно пропорционально где является обратной к ковариационной матрице, также называемой точностью. Эта матрица положительно определена и определяет с помощью в скалярное произведение на . Результирующая геометрия, которая придает особое значение понятию ортогональности и определяет норму, относящуюся к нормальному распределению, важна, и для понимания, например, геометрического содержания LDA, вам нужно посмотреть на вещи в свете данной геометрии по
Еще одна вещь, которую нужно сказать, это то, что частичные корреляции могут быть считаны непосредственно из , см. Здесь . На той же странице Википедии дается, что частичные корреляции и, следовательно, записи имеют геометрическую интерпретацию в терминах косинуса к углу. Что, возможно, более важно в контексте частичных корреляций, так это то, что частичная корреляция между и равна 0 тогда и только тогда, когда запись в равна нулю. Для нормального распределения переменных и затем условно независимыP P Xi Xj i,j P Xi Xj учитывая все остальные переменные. Это то, чем посвящена книга Штеффенса, о которой я упоминал в комментарии выше. Условная независимость и графические модели. Он имеет довольно полную трактовку нормального распределения, но может быть не так легко следовать.
источник
Мне нравится эта вероятностная графическая модель, чтобы проиллюстрировать точку зрения NRH о том, что частичная корреляция равна нулю тогда и только тогда, когда X условно не зависит от Y с учетом Z, при условии, что все задействованные переменные являются многомерными гауссовскими (свойство не выполняется в общем случае) :
( - случайные гауссовы переменные; игнорировать T и k)yi
Источник: доклад Дэвида Маккея об основах гауссовского процесса , 25-я минута.
источник
Интерпретация, основанная на частичных корреляциях, является, вероятно, наиболее статистически полезной, поскольку она применяется ко всем многомерным распределениям. В частном случае многомерного нормального распределения нулевая частичная корреляция соответствует условной независимости.
Вы можете получить эту интерпретацию, используя дополнение Шура, чтобы получить формулу для элементов матрицы концентрации в терминах элементов матрицы ковариации. См. Http://en.wikipedia.org/wiki/Schur_complement#Applications_to_probability_theory_and_statistics
источник
Ковариационная матрица может представлять отношение между всеми переменными, в то время как обратная ковариантность отражает отношение элемента с их соседями (как в википедии сказано частичное / парное отношение).
Я заимствую следующий пример отсюда в 24:10, представьте, что 5 масс соединены вместе и гласная вокруг с 6 пружинами, ковариационная матрица будет содержать корреляцию всех масс, если одна пойдет правильно, другие тоже могут пойти правильно. но обратная ковариационная матрица определяет отношение тех масс, которые связаны одной и той же пружиной (соседями), и содержит много нулей и не является обязательным положительным.
источник
Бар-Шалом и Фортманн (1988) упоминают обратную ковариацию в контексте фильтрации Калмана следующим образом:
Книга проиндексирована в Google .
источник