Предпосылки моего исследования :
В выборках Гиббса , где мы образец (переменные интересы) и из и соответственно, где и являются - мерными случайными векторами. Мы знаем, что процесс обычно делится на два этапа:
- Период выгорания, где мы отбрасываем все образцы. Обозначим образцы как и .
- Период после прожигания, где мы усредняем выборки как наш конечный желаемый результат.
Однако отсчеты в последовательности после выгорания не распределены независимо. Поэтому, если я хочу проверить дисперсию конечного результата, он становится
Здесь термин представляет собой кросс-ковариационную матрицу, применимую к любому с .
Например, у меня есть
тогда я мог бы оценить ковариационную матрицу с помощью
Теперь меня интересует, является ли полученная оценка значительно ненулевой, поэтому мне нужно включить ее в мою оценку дисперсии .
Итак, вот мои вопросы :
- Мы из . Поскольку меняется, я думаю, что и не относятся к одному и тому же распределению, поэтому - это не то же самое, что . Это утверждение правильно?
- Предположим, у меня достаточно данных для оценки (соседние выборки в последовательности), есть ли способ проверить, значительно ли ковариационная матрица ненулевая матрица? Вообще говоря, меня интересует индикатор, который ведет меня к некоторым значимым кросс-ковариационным матрицам, которые должны быть включены в мою окончательную оценку дисперсии.
Ответы:
Вы путаете условные и безусловные распределения здесь, см. Также мое следующее замечание. Условно на и , . Но вся суть построения вашего Гиббс пробоотборника для выборки из стационарных распределений и . Грубо говоря, если вы управляете своей цепью достаточно долго и так, что следует за стационарным распределением, вы можете сказать означает, что безусловное распределение также является инвариантным. Другими словами, какYt+i=y1 Yt+i+1=y2 P(Xt+i|Yt+i=y1)≠P(Xt+i+1|Yt+i+1=y2) X Y {Yt}
Да, это правильно - даже если , то есть и имеют одинаковое стационарное распределение. Я знаю, что это может сбивать с толку, но потерпите меня. Определите с помощью . Посредством повторного замещения можно показать, что , и поскольку (бесконечные) суммы нормалей по-прежнему нормальны, в нем содержится то, что и так что . Ясно, что иXt+1∼Xt Xt Xt+1 Yt=0.8⋅Yt−1+εt εt∼iidN(0,1) Yt=∑ti=00.8iεt−i Var(Yt)=∑ti=00.82i=11−0.82 Yt∼iidN(0,11−0.82) Yt Yt+1 будет по-прежнему коррелировать, но они также будут приходить из того же распределения ( ). Аналогичная ситуация имеет место для вашего .Yt+1∼Yt Xt
Ну, если у вас было бесконечно много наблюдений, все они в конечном итоге будут значительными. Ясно, что вы не можете сделать это на практике, но есть способы «отрубить» расширение после некоторых сроков, см. Принятый превосходный ответ здесь. По сути, вы определяете ядро которое уменьшается до и присваивает веса первым ковариационным матрицам которые вы можете вычислить. Если вы хотите выбрать принципиальным образом, вам придется немного покопаться в литературе, но пост, на который я ссылаюсь, дает вам несколько хороших ссылок, чтобы сделать именно это.k(⋅) 0 lT lT
источник