Это повторяющийся вопрос (см. Этот пост , этот пост и этот пост ), но у меня другое вращение.
Предположим, у меня есть набор сэмплов из стандартного сэмплера MCMC. Для каждого образца я знаю значение вероятности записи в журнал и предшествующего . Если это помогает, я также знаю значение вероятности записи в журнал для каждой точки данных, (эта информация помогает в некоторых методах, таких как WAIC и PSIS-LOO).
Я хочу получить (грубую) оценку предельной вероятности, только с имеющимися у меня выборками, и, возможно, с некоторыми другими оценками функций (но без повторного запуска специальной MCMC).
Прежде всего, давайте очистим таблицу. Все мы знаем, что оценка гармоник - худшая оценка за всю историю . Давайте двигаться дальше. Если вы делаете выборку Гиббса с априорами и постерами в закрытой форме, вы можете использовать метод Чиба ; но я не уверен, как обобщать за пределами этих случаев. Существуют также методы, которые требуют, чтобы вы изменили процедуру выборки (например, с помощью закаленных постеров ), но меня это здесь не интересует.
Подход, о котором я думаю, состоит в аппроксимации базового распределения параметрической (или непараметрической) формой , а затем в определении задачи нормализации как одномерной задачи оптимизации (т. которая минимизирует некоторую ошибку между и , вычислено по образцам). В простейшем случае, предположим, что апостериор является грубо многомерной нормалью, я могу подогнать как многовариантную нормаль и получить что-то похожее на приближение Лапласа (возможно, я хотел бы использовать несколько дополнительных функций для уточнения положения режим). Тем не менее, я мог бы использовать какболее гибкое семейство, такое как вариационная смесь многомерных распределений.
Я ценю, что этот метод работает, только если - разумное приближение к , но любая причина или предостерегающий рассказ о том, почему было бы очень неразумно сделай это? Любое чтение, которое вы бы порекомендовали?
В полностью непараметрическом подходе используется некоторое непараметрическое семейство, такое как гауссовский процесс (GP), для аппроксимации (или некоторого другого его нелинейного преобразования, такого как как квадратный корень), и байесовская квадратура для неявной интеграции по основной цели (см. здесь и здесь ). Это представляется интересным альтернативным подходом, но аналогичным по духу (также обратите внимание, что в моем случае ВОП были бы громоздкими).
Ответы:
К сожалению, расширение, выполненное Chib and Jeliazkov (2001), быстро становится дорогостоящим или сильно изменчивым, что является причиной, по которой его не так часто используют за пределами выборок Гиббса.
Несмотря на то, что существует множество способов и подходов к проблеме оценки константы нормализации (как показывают довольно разнообразные доклады на семинаре по оценке константы, который мы провели на прошлой неделе в Университете Уорика, слайды доступны там ), некоторые решения действительно используют непосредственно вывод MCMC.Z
Как вы упомянули, средняя оценка по гармоникам Ньютона и Рафтери (1994) почти всегда плоха из-за бесконечной дисперсии. Однако есть способы избежать проклятия бесконечной дисперсии, используя вместо этого конечную опорную цель в среднем гармоническом тождестве , выбрав в качестве индикатора области HPD для апостериорного. Это обеспечивает конечную дисперсию, удаляя хвосты в среднем по гармонике. (Подробности можно найти в статье, которую я написал с Дарреном Рейтом, и в главе о нормализации констант, написанной Жан-Мишелем Марином.) Короче говоря, метод вывод MCMC & alphathetas1,...,thetasМ& betaл(thetas)F(х|thetas)& alphathetas ; 0 я ρZ Z -1= 1
Другой подход - превратить нормализующую константу в параметр. Это звучит как статистическая ересь, но статья Guttmann and Hyvärinen (2012) убедила меня в обратном. Не вдаваясь в подробности, идеальная идея заключается в том, чтобы превратить наблюдаемое логарифмическое правдоподобие в совместное логарифмическое правдоподобие - логарифмическая вероятность пуассоновского точечного процесса с функцией интенсивностиZ n ∑ i = 1 [f(xi|θ)+ν]-n∫exp[f(x)|θ)+ν]dxexp{
источник