Таким образом, простой ответ - да: Метрополис-Гастингс и его выборка Гиббса в особом случае :) Общий и мощный; масштабируется ли он, зависит от проблемы под рукой.
е( к )п( к~= к ) = е( К ) / Σ F( к )К
Вы имеете в виду конкретную модель? Существуют всевозможные подходы MCMC для подбора моделей смесей, например, когда скрытые назначения компонентов являются дискретными параметрами. Они варьируются от очень простых (Гиббс) до довольно сложных.
Насколько велика пространство параметров? Является ли он потенциально огромным (например, в случае модели смеси это N по количеству компонентов смеси)? Вам может не понадобиться ничего больше, чем сэмплер Гиббса, так как сопряжение больше не является проблемой (вы можете получить нормализующую константу напрямую, чтобы вы могли вычислить полные условия). На самом деле Гридби Гиббс имел обыкновение быть популярным в этих случаях, когда непрерывный априор дискретизируется для облегчения вычислений.
Я не думаю, что есть конкретное «лучшее» для всех задач, имеющих дискретное пространство параметров, больше, чем для непрерывного случая. Но если вы расскажете нам больше о моделях, которые вас интересуют, возможно, мы дадим несколько рекомендаций.
Изменить: ОК, я могу дать немного больше информации о ваших примерах.
р ( β) ∼ πN( β; 0 , т) + ( 1 - π) N( β, 0 , 1000 τ)р ( β) ∼ πδ0( β) + (1 - π) N(β, 0 , τ)δ0βZZ1… , Zп2п1 : 2п
p ( Z, β| Y)p ( Z, β| Y) = p ( β| Y, Z) p ( Z| Y)Zβ
SSVS объединяет все пространство модели в одну большую модель. Часто это легко реализовать, но плохо работает. Обратимый переход MCMC - это другой подход, который позволяет явно изменять размерность пространства параметров; см. [3] для обзора и некоторых практических замечаний. Я уверен, что в литературе можно найти более подробные примечания по реализации в различных моделях.
р = 1000
Другой подход, который набирает популярность, заключается в использовании абсолютно непрерывных усадочных априоров, которые имитируют усредненные результаты модели. Обычно они формулируются как смеси нормалей. Байесовское лассо является одним из примеров, который представляет собой особый случай нормальных гамма-приоров и предельный случай нормальных экспоненциальных гамма-приоров. Другие варианты включают подкову и общий класс нормальных распределений с инвертированными бета-приорами их дисперсии. Более подробно об этом я бы предложил начать с [6] и вернуться к ссылкам (слишком много, чтобы я мог воспроизвести их здесь :))
Я добавлю больше о выпадающих моделях позже, если у меня будет шанс; Классическая ссылка [7]. По духу они очень похожи на усадочную приору. Обычно их довольно легко сделать с помощью выборки Гиббса.
Возможно, не так практично, как вы надеялись; Выбор модели, в частности, является сложной проблемой, и чем сложнее модель, тем хуже она становится. Блокировать обновление везде, где это возможно, - единственный совет, который у меня есть. При выборке из множества распределений часто возникает проблема, состоящая в том, что показатели членства и параметры компонентов сильно коррелируют. Я также не затрагивал вопросы переключения меток (или отсутствие переключения меток); там довольно много литературы, но это немного из моей рубки.
В любом случае, я думаю, что было бы полезно начать с некоторых ссылок здесь, чтобы понять, как другие люди подходят к подобным проблемам.
[1] Мерлис Клайд и Э.И. Джордж. Модель неопределенности статистической науки 19 (2004): 81--94.
http://www.isds.duke.edu/~clyde/papers/statsci.pdf
[2] http://www-personal.umich.edu/~bnyhan/montgomery-nyhan-bma.pdf
[3] Реверсивный прыжок Green & Hastie MCMC (2009)
http://www.stats.bris.ac.uk/~mapjg/papers/rjmcmc_20090613.pdf
[4] http://www.stat.duke.edu/~clyde/BAS/
[5] http://ba.stat.cmu.edu/journal/2010/vol05/issue03/bottolo.pdf
[6] http://www.uv.es/bernardo/Polson.pdf
[7] Mike West Outlier модели и априорные распределения в байесовской линейной регрессии (1984) JRSS-B