Я рассматриваю большое (но конечное) пространство моделей различной сложности, которые я исследую с помощью RJMCMC . Приоритет вектора параметров для каждой модели достаточно информативен.
В каких случаях (если таковые имеются) я должен беспокоиться о парадоксе Джеффриса-Линдли в пользу более простых моделей, когда одна из более сложных моделей будет более подходящей?
Существуют ли простые примеры, освещающие проблемы парадокса при выборе байесовской модели?
Я прочитал несколько статей, а именно блог Сиане в и блог Эндрю Гельмана , но я до сих пор не совсем понимаю проблему.
Ответы:
Извините за неясность в моем блоге !
Примечание: я предоставил некоторую предысторию выбора модели Байеса и парадокса Джеффриса-Линдли в этом другом ответе на Кресте.
Парадокс Джеффриса-Линдли связан с выбором байесовской модели в том, что предельное правдоподобие становится бессмысленным, когда π является σ- конечной мерой (т. е. мерой с бесконечной массой), а не вероятностной мерой. Причина этой трудности заключается в том, что бесконечная масса делает π и c π неразличимыми для любой положительной константы c . В частности, Байесовский фактор не может использоваться и не должен использоваться, когда одна модель наделена «плоским» предшествующим уровнем.
Теперь, если ваши приоры информативны (и, следовательно, правильны), нет никаких причин для возникновения парадокса Джеффриса-Линдли. При достаточном количестве наблюдений фактор Байеса будет последовательно выбирать модель, которая генерирует данные. (Или, точнее, модель в наборе моделей, рассматриваемых для выбора модели, которая наиболее близка к «истинной» модели, которая генерировала данные.)
источник