относительно условной независимости и ее графического представления

10

При изучении выбора ковариации я однажды прочитал следующий пример. Что касается следующей модели:

введите описание изображения здесь

Его ковариационная матрица и обратная ковариационная матрица имеют следующий вид:

введите описание изображения здесь

Я не понимаю, почему независимость и определяется здесь обратной ковариацией?уxy

Какая математическая логика лежит в основе этих отношений?

Кроме того, левый график на следующем рисунке, как утверждается, отражает отношения независимости между и ; Почему?xy

введите описание изображения здесь

бит вопрос
источник

Ответы:

11

Матрицу обратной ковариации можно использовать для выработки условных дисперсий и ковариаций для многомерных гауссовских распределений. Предыдущий вопрос дает некоторые ссылки

Например, чтобы найти условную ковариацию и учетом значения , вы должны взять правый нижний угол обратной матрицы ковариацииZ X = xYZX=x

(1-1-13) и повторно инвертировать его в (32121212)

что действительно дает ковариационную матрицу и обусловленную значением для .Z X = xYZИксзнак равноИкс

Таким же образом, чтобы найти условную ковариационную матрицу и учетом значения для , вы должны взять верхний левый угол обратной ковариационной матрицыY Z = zИксYZзнак равноZ

(1001) и повторно инвертировать его в (1001)

говорю вам, что условная ковариация между и заданном равна (и что каждая из их условных дисперсий равна ). Y Z = z 0 1ИксYZзнак равноZ01

Чтобы сделать вывод, что эта нулевая условная ковариация подразумевает условную независимость, вы также должны использовать тот факт, что это многовариантный гауссов (поскольку в целом нулевая ковариация не обязательно подразумевает независимость). Вы знаете это по строительству.

Возможно, вы также знаете об условной независимости от конструкции, так как вам говорят, что и являются iid, поэтому обусловлены определенным значением для , и также являются iid , Если вы знаете , нет никакой дополнительной информации от , которая позволяет вам сказать что - либо о возможных значениях .ϵ 2 Z = z X = z + ϵ 1 Y = z + ϵ 2 Z = z X Yε1ε2Zзнак равноZИксзнак равноZ+ε1Yзнак равноZ+ε2Zзнак равноZИксY

Генри
источник
0

Это дополнение к правильному и принятому ответу. В частности, оригинальный вопрос содержит дополнительный вопрос об утверждении, которое делает книга.

Кроме того, левый график на следующем рисунке, как утверждается, отражает отношения независимости между и , почему? YИксYвведите описание изображения здесь

Это то, что рассматривается в этом ответе, и это единственное, что рассматривается в этом ответе.

Чтобы убедиться, что мы находимся на одной странице, в дальнейшем я использую это определение (неориентированного) графа условной независимости, которое соответствует (хотя бы приблизительно) марковским случайным полям:

Определение: граф условной независимости является неориентированным графом где иG = ( K , E ) K = { 1 , 2 , , k } ( i , j ) X iИксгзнак равно(К,Е)Кзнак равно{1,2,...,К}(я,J) не входит в множество ребер тогда и только тогда, когда . (Где обозначает вектор всех случайных величин, кроме и .) X K { i , j } X i X jИксяИксJ|ИксК{я,J}ИксК{я,J}ИксяИксJ

Из с. 60 из Whittaker, Графические модели в прикладной математической многомерной статистике (1990).

Здесь, используя аргумент, приведенный Генри в правильном, принятом ответе, мы можем установить, что и условно независимы с учетом в обозначениях .Y Z X ИксYZИксY |Z

Поскольку только три случайные величины Икс,Y и , это означает, что и условно независимы, если даны все остальные оставшиеся случайные величины (в данном случае просто ).ZИксYZ

Используя определение условной независимости графа , приведенный выше, это означает , что все ребра в графе должны быть включены , за исключением грани между и . Действительно, это именно то, что показано на правом графике этой картины.ИксY

Что касается левого графа, то неясно, не имея большего контекста, но я думаю, что идея состоит в том, чтобы просто показать, как выглядел бы график условной независимости, если бы у нас не было нулей в тех элементах обратной матрицы ковариации.

В частности, используя приведенное выше определение, мы видим, что мы можем начать с полного графа на узлах , который является левым графом на этом рисунке, а затем вывести граф условной независимости из этого первого графа, удалив все ребра, соответствующие условно независимым случайным величинам. Картина действительно сравнивает два графа в явном виде («против»), что для меня предлагает сравнение между полным графом, с которого можно начать, и графом условной независимости, с которым заканчивается, если / когда они применяют определение графа условной независимости, как дано над.Икс,Y,Z

Chill2Macht
источник