Когда мне следует беспокоиться о парадоксе Джеффриса-Линдли в выборе байесовской модели?

12

Я рассматриваю большое (но конечное) пространство моделей различной сложности, которые я исследую с помощью RJMCMC . Приоритет вектора параметров для каждой модели достаточно информативен.

  1. В каких случаях (если таковые имеются) я должен беспокоиться о парадоксе Джеффриса-Линдли в пользу более простых моделей, когда одна из более сложных моделей будет более подходящей?

  2. Существуют ли простые примеры, освещающие проблемы парадокса при выборе байесовской модели?

Я прочитал несколько статей, а именно блог Сиане в и блог Эндрю Гельмана , но я до сих пор не совсем понимаю проблему.

Джефф
источник
1
Я думаю, что вопросов слишком много, и они слишком четкие, чтобы на них можно было эффективно ответить.
Джарадниеми
Спасибо за отзыв, @jaradniemi, я удалил вопрос "Должна ли процедура RJMCMC, которая эффективно возвращает вероятности апостериорной модели, отдавать предпочтение тем же моделям, что и DIC?"
Джефф

Ответы:

5

Извините за неясность в моем блоге !

Примечание: я предоставил некоторую предысторию выбора модели Байеса и парадокса Джеффриса-Линдли в этом другом ответе на Кресте.

Парадокс Джеффриса-Линдли связан с выбором байесовской модели в том, что предельное правдоподобие становится бессмысленным, когда π является σ- конечной мерой (т. е. мерой с бесконечной массой), а не вероятностной мерой. Причина этой трудности заключается в том, что бесконечная масса делает π и c π неразличимыми для любой положительной константы c . В частности, Байесовский фактор не может использоваться и не должен использоваться, когда одна модель наделена «плоским» предшествующим уровнем.

m(x)=π(θ)f(x|θ)dθ
πσπcπc

xN(0,1)
xN(θ,1)
B12=exp{n(x¯n)2/2}+exp{n(x¯nθ)2/2}π(θ)dθ
πN(0,τ2)θτx¯nnτn
π(θ)=c
cB12
B12=exp{n(x¯n)2/2}c+exp{n(x¯nθ)2/2}dθ=exp{n(x¯n)2/2}c2π/n
c

Теперь, если ваши приоры информативны (и, следовательно, правильны), нет никаких причин для возникновения парадокса Джеффриса-Линдли. При достаточном количестве наблюдений фактор Байеса будет последовательно выбирать модель, которая генерирует данные. (Или, точнее, модель в наборе моделей, рассматриваемых для выбора модели, которая наиболее близка к «истинной» модели, которая генерировала данные.)

Сиань
источник
2
Большое спасибо за ваш очень подробный ответ, Сиань! Ваш блог очень ясен (я многому научился из него), я просто немного не спешил в понимании этой конкретной проблемы!
Джефф
На самом деле, мой блог оперирует крайне изменчивыми предположениями о предыстории и предпосылках, поэтому он, конечно, непонятен порой и для многих читателей!
Сиань