Байесовское моделирование с использованием многомерного нормального с ковариатным

11

Предположим, у вас есть объясняющая переменная Иксзнак равно(Икс(s1),...,Икс(sN)) где s представляет данную координату. У вас также есть переменная ответа Yзнак равно(Y(s1),...,Y(sN)) . Теперь мы можем объединить обе переменные как:

W(s)знак равно(Икс(s)Y(s))~N(μ(s),T)

В этом случае мы просто выбираем μ(s)знак равно(μ1μ2)T а T - ковариационная матрица, которая описывает соотношение между Икс и Y . Это описывает только значения Икс и Y в s . Так как у нас есть больше точек из других мест для Икс и Y , мы можем описать больше значений W(s) следующим образом:

(XY)=N((μ11μ21),TH(ϕ))

Вы заметите, что мы переставили компоненты X и Y чтобы получить все Икс(sя) в столбце, и после этого объединяем все Y(sя) вместе. Каждый компонент ЧАС(φ)яJ является корреляционной функцией ρ(sя,sJ) а T такой же, как указано выше. Причина , мы имеем ковариационная TЧАС(φ) , потому что мы предполагаем , что можно отделить матрицу ковариации , как С(s,s')знак равноρ(s,s')T .

Вопрос 1: Когда я вычисляю условное , я на самом деле создаю набор значений на основе , верный? У меня уже есть поэтому мне было бы интереснее предсказать новую точку . В этом случае у меня должна быть матрица определенная как Y X Y y( s 0 ) H (ϕ)Y|ИксYИксYY(s0)ЧАС*(φ)

ЧАС*(φ)знак равно(ЧАС(φ)часчасρ(0,φ))

в котором является вектором . Поэтому мы можем построить вектор (без перестановки):ρ ( s 0 - s j ; ϕ )час(φ)ρ(s0sj;ϕ)

W*знак равно(W(s1),...,W(sN),W(s0))T~N(1N+1(μ1μ2),ЧАС(φ)*T)

А теперь я просто переставил, чтобы получить совместное распределение и получить условное . p(y( s 0 ) x 0 , X , Y )(ИксИкс(s0)YY(s0))p(y(s0)x0,X,Y)

Это верно?

Вопрос 2: Для прогнозирования в статье, которую я читаю, указано, что я должен использовать это условное распределение и получить апостериорный распределение , но я не уверен, как получить апостериорное распределение для параметров. Возможно, я мог бы использовать дистрибутив который я считаю точно так же, как а затем просто используйте теорему Байеса для полученияр ( μ , Т , ф | х ( ы 0 ) , Y , X ) ( X х ( ы 0 ) Y ) р ( Х , х ( ы 0 ) , Yμ , T , ϕ ) pp(y(s0)x0,X,Y)p(μ,T,ϕx(s0),Y,X)(Xx(s0)Y)p(X,x(s0),Yμ,T,ϕ)p(μ,T,ϕX,x(s0),Y)p(X,x(s0),Yμ,T,ϕ)p(μ,T,ϕ)

Вопрос 3: В конце подраздела автор говорит следующее:

Для предсказания у нас нет . Это не создает никаких новых проблем, так как может рассматриваться как скрытая переменная и включаться в Это приводит только к дополнительному рисованию в каждой итерации Гиббса и является тривиальным дополнением к вычислительной задаче. xX(s0)x'

Что означает этот абзац?

Кстати, эту процедуру можно найти в этой статье (стр. 8), но, как вы можете видеть, мне нужно немного больше деталей.

Благодаря!

Роберт Смит
источник
Проголосовал за миграцию за запрос OP .
Я бы сказал, что правильно на оба ваших ответа на вопросы 1 и 2. Вопрос 3 означает, что ненаблюдаемый рассматривается как дополнительный параметр, поверх , с использованием полного условного как и прежде для . μ , T , φ р ( х ( ев 0 ) | Х , , Y , μ , T , φ ) Х ( ы 0 )X(s0)μ,T,ϕ
p(x(s0)X,,Y,μ,T,ϕ)
X(s0)
Сиань

Ответы:

2

Вопрос 1: Учитывая вашу общую вероятностную модель условное распределение по учитывая, что также является нормальным, со средним значением и дисперсионно-ковариационная матрица Y X μ 2 + Σ 21 Σ - 1 11 ( X - μ

(ИксY)~N((μ11μ21),[Σ11Σ12Σ21Σ22])знак равноN((μ11μ21),TЧАС(φ))
YИкс Σ 22 - Σ 21 Σ - 1 11 Σ 21 . p(y( s 0 )x( s 0 ), X , Y )(y( s 0 ),x( s 0 ), X , Y )
μ2+Σ21Σ11-1(Икс-μ1)
Σ22-Σ21Σ11-1Σ21,
(Эти формулы дословно скопированы со страницы Википедии о многомерных нормалях .) То же самое относится к поскольку - еще один нормальный вектор.п(Y(s0)|Икс(s0),Икс,Y)(Y(s0),Икс(s0),Икс,Y)

Вопрос 2: Прогностическая определяется как то есть путем интегрирования параметров с использованием апостериорного распределения этих постеров, учитывая текущие данные . Таким образом, есть еще немного к полному ответу. Очевидно, что если вам нужно только симулировать из предиктивного, ваше представление о симуляции совместно из и тогда из является действительным.p ( y ( s 0 ) | x ( s 0 ) , X , Y ) = p ( y ( s 0 ) | x ( s 0 ) , X , Y , μ , T , ϕп(Y(s0)|Икс(s0),Икс,Y)( X , Y , x ( s 0 ) ) p ( μ , T , ϕ X , x ( s 0 ) , Y ) p ( y ( s 0 ) x ( s 0 ) , X , Y , μ , T , ϕ )

п(Y(s0)|Икс(s0),Икс,Y)знак равноп(Y(s0)|Икс(s0),Икс,Y,μ,T,φ)п(μ,T,φ|Икс(s0),Икс,Y)dμdTdφ,
(Икс,Y,Икс(s0))п(μ,T,φ|Икс,Икс(s0),Y)п(Y(s0)|Икс(s0),Икс,Y,μ,T,φ)

Вопрос 3: Если не наблюдается, пара может быть предсказана из другого предиктивного значения Икс(s0)(Икс(s0),Y(s0))

п(Икс(s0),Y(s0)|Икс,Y)знак равноп(Икс(s0),Y(s0)|Икс,Y,μ,T,φ)п(μ,T,φ|Икс,Y)dμdTdφ,

При моделировании из этого предиктора, поскольку он недоступен в управляемой форме, можно запустить сэмплер Гиббса, который итеративно моделирует

  1. μ|Икс,Y,Икс(s0),Y(s0),T,φ
  2. T|Икс,Y,Икс(s0),Y(s0),μ,φ
  3. φ|Икс,Y,Икс(s0),Y(s0),T,μ
  4. Икс(s0)|Икс,Y,Y(s0),φ,T,μ
  5. Y(s0)|Икс,Y,Икс(s0),φ,T,μ

или объединить шаги 4 и 5 в один шаг

  • Икс(s0),Y(s0)|Икс,Y,φ,T,μ
Сиань
источник