Я только что прочитал о выборке Гиббса и алгоритме Метрополиса Гастингса и у меня есть пара вопросов.
Насколько я понимаю, в случае выборки Гиббса, если у нас большая многомерная задача, мы выбираем из условного распределения, то есть выбираем одну переменную, сохраняя все остальные фиксированными, тогда как в MH мы выбираем из полного совместного распределения.
В документе говорилось, что предложенная выборка всегда принимается в выборке Гиббса, т. Е. Коэффициент принятия предложения всегда равен 1. Для меня это кажется большим преимуществом, поскольку для больших многомерных задач кажется, что коэффициент отклонения для алгоритма МЗ становится довольно большим. , Если это действительно так, то в чем причина неиспользования Gibbs Sampler все время для создания апостериорного распределения?
Ответы:
Основное обоснование использования алгоритма Метрополис заключается в том, что вы можете использовать его, даже если полученный апостериор неизвестен. Для выборки Гиббса вы должны знать, что апостериорные распределения, от которых вы рисуете, варьируются.
источник
Выборка Гиббса разрушает проклятие размерности в выборке, поскольку вы разбили пространство параметров (возможно, с высокой размерностью) на несколько шагов с низкой размерностью. Metropolis-Hastings устраняет некоторые проблемы размерности при генерировании техник выборки отклонения, но вы все еще осуществляете выборку из полного многовариантного распределения (и принимаете решение принять / отклонить выборку), в результате чего алгоритм страдает от проклятия размерности.
Думайте об этом в упрощенном виде: гораздо проще предложить обновление для одной переменной за раз (Гиббс), чем для всех переменных одновременно (Метрополис Гастингс).
При этом размерность пространства параметров будет по-прежнему влиять на сходимость как в Гиббсе, так и в Метрополисе Гастингсе, поскольку существует больше параметров, которые потенциально могут не сходиться.
Гиббс также хорош, потому что каждый шаг цикла Гиббса может быть в закрытой форме. Это часто имеет место в иерархических моделях, где каждый параметр обусловлен только несколькими другими. Часто довольно просто построить вашу модель так, чтобы каждый шаг Гиббса был в закрытой форме (когда каждый шаг сопряжен, его иногда называют «полусопряженным»). Это хорошо, потому что вы выбираете из известных дистрибутивов, которые часто могут быть очень быстрыми.
источник