У меня возникли проблемы с пониманием, в какой ситуации подход MCMC действительно полезен. Я рассматриваю игрушечный пример из книги Крушке «Анализ байесовских данных: учебник по R и BUGS».
До сих пор я понимал, что нам нужно целевое распределение, пропорциональное , чтобы иметь выборку . Однако, мне кажется, что как только у нас есть нам нужно только нормализовать распределение, чтобы получить апостериор, и коэффициент нормализации можно легко найти численно. Так в каких случаях это невозможно?P ( θ | D ) p ( D | θ ) p ( θ )
Ответы:
Интеграция Монте-Карло является одной из форм численного интегрирования, которая может быть гораздо более эффективной, чем, например, численное интегрирование путем аппроксимации подынтегрального выражения с полиномами. Это особенно верно в больших измерениях, где простые численные методы интегрирования требуют большого количества оценок функций. Чтобы вычислить нормировочную константу , мы могли бы использовать выборку важности ,p(D)
где и выбираются из . Обратите внимание, что нам нужно только оценить совместное распределение в выбранных точках. Для правильного эта оценка может быть очень эффективной в том смысле, что требуется очень мало выборок. На практике выбор подходящего может быть трудным, но здесь MCMC может помочь! Отобранная выборка важности (Neal, 1998) объединяет MCMC с выборкой важности.wn=1/q(θn) θn q q q
Еще одна причина, по которой MCMC полезен, заключается в следующем: мы обычно даже не заинтересованы в апостериорной плотности , а скорее в сводной статистике и ожиданиях , например,θ
Знание обычно не означает, что мы можем решить этот интеграл, но выборки - очень удобный способ его оценки.p(D)
Наконец, возможность оценки является требованием для некоторых методов MCMC, но не для всех (например, Murray et al., 2006 ).p(D∣θ)p(θ)
источник
Когда вам даны предварительные и вероятность , которые либо не вычислимы в закрытой форме, либо такие, что апостериорное распределение не является стандартным типом, моделирование непосредственно от этой цели к приближению апостериорного распределения по методу Монте-Карло не представляется возможным. Типичным примером являются иерархические модели с несопряженными априорными значениями, например, те, которые можно найти в книге BUGS .p(θ) f(x|θ)
Методы косвенного моделирования, такие как прием-отклонение, метод расчета коэффициента равномерности или выборки по важности, обычно сталкиваются с трудностями с числовой точностью и точностью, когда размерность параметра превышает несколько единиц.θ
Напротив, методы Монте-Карло с цепью Маркова более пригодны для больших измерений, поскольку они могут исследовать апостериорное распределение на локальной основе, т. Е. В окрестности текущего значения, и на меньшем числе компонентов, т. Е. На подпространствах. Например, сэмплер Гиббса подтверждает утверждение о том, что имитация от одномерной цели за раз, а именно полных условных распределений, связанных с , является достаточной для достижения симуляции из истинного апостериорного значения в долгосрочной перспективе.p(θ|x)
Марковская цепь методов Монте-Карло также обладает некоторой степенью универсальности в том, что алгоритмы, такие как алгоритм Метрополиса-Гастингса, формально доступны для любого апостериорного распределения которое можно вычислить с точностью до константы.p(θ|x)
В случаях, когда не может быть легко вычислено, существуют альтернативы, либо путем завершения этого распределения в управляемое распределение по большему пространству, как в или с помощью немарковских методов, таких как ABC .p(θ)f(x|θ)
Методы MCMC дали гораздо более широкий охват байесовских методов, о чем свидетельствует рост, последовавший за популяризацией метода Аланом Гельфандом и Адрианом Смитом в 1990 году.
источник