Остаточная диагностика в регрессионных моделях на основе MCMC

21

Недавно я приступил к подгонке регрессионно-смешанных моделей в байесовской структуре, используя алгоритм MCMC (функция MCMCglmm в R на самом деле).

Я полагаю, что я понял, как диагностировать сходимость процесса оценки (след, график Гьюке, автокорреляция, апостериорное распределение ...).

Одна из вещей, которая поражает меня в байесовской структуре, - это то, что много усилий, по-видимому, посвящено этой диагностике, в то время как очень мало, похоже, делается с точки зрения проверки остатков подобранной модели. Например, в MCMCglmm функция residual.mcmc () существует, но на самом деле еще не реализована (т. Е. Возвраты: «остатки, еще не реализованные для объектов MCMCglmm»; та же история для Предиката.mcmc ()). Похоже, что этого не хватает и в других пакетах, и в целом мало что обсуждается в литературе, которую я нашел (кроме DIC, который также довольно активно обсуждается).

Может ли кто-нибудь указать мне некоторые полезные ссылки, и в идеале код R, с которым я мог бы поиграть или изменить?

Большое спасибо.

Rossinante
источник
Отличный вопрос Мне очень нравится статья Эндрю Гельмана с Космой Шализи о проверке байесовской модели.
Дэвид Дж. Харрис

Ответы:

7

Я думаю, что использование термина остаточный не соответствует байесовской регрессии. Помните, что в моделях вероятностных вероятностей именно параметры считаются фиксированными оцениваемыми величинами, а механизм генерирования данных имеет некоторую модель случайной вероятности, связанную с наблюдаемыми данными. Для байесовских параметров параметры вероятностных моделей считаются переменными, а фиксированные данные обновляют наше представление о том, что это за параметры. Поэтому, если вы вычисляете дисперсию наблюдаемых минус подогнанных значений в регрессионной модели, наблюдаемыеКомпонент будет иметь 0 дисперсию, тогда как подобранный компонент будет варьироваться как функция апостериорной плотности вероятности для параметров модели. Это противоположно тому, что вы могли бы извлечь из регрессионной модели. Я думаю, что если бы кто-то был заинтересован в проверке вероятностных допущений их байесовской регрессионной модели, простой QQ-график апостериорной плотности оценок параметров (оцененных из нашей выборки MCMC) по сравнению с нормальным распределением имел бы диагностическую мощность, аналогичную анализу остатков (или остатков Пирсона). для нелинейных функций связи).

Adamo
источник
1
Это хороший ответ. Возможно, еще есть ответы, которые дают полезные байесовские конструкции, рассчитанные на основе остатка, подобранного по минусу, но этот, безусловно, не должен был быть опущен.
13
3
Кроме того, возможно, стоит уточнить, что в байесовских настройках у вас действительно нет «подогнанных» значений. Вы можете рассчитать апостериорное среднее значение для данного наблюдаемого входа, чтобы получить максимальную апостериорную оценку ожидаемого значения целевой переменной на этом входе. Но это сводит все к точечным оценкам, что обычно нежелательно, если вы делаете байесовский вывод.
13
2
@EMS любой из этих значимых остатков. Тот факт, что человек является байесовским, не означает, что он не может проверить, отражены ли предположения в данных.
Glen_b
1
Для точного вероятностного вывода (допущения нормальности на месте) в частой обстановке «остатки», в повторениях эксперимента по исследованию, будут условно независимы от «подходящего значения» (или условного среднего). В мире Байеса данные не случайны, так что условно не зависит от чего?
AdamO
1
Е[Y|Икс]ИксY