В моделях Normal и Binomial всегда задняя дисперсия меньше предыдущей дисперсии?
10
Или какие условия это гарантируют? В целом (и не только для нормальных и биномиальных моделей) я полагаю, что главная причина, которая нарушила это утверждение, состоит в том, что существует несоответствие между моделью выборки и предыдущей, но что еще? Я начинаю с этой темы, поэтому я очень ценю простые примеры
Поскольку апостериорная и априорная дисперсии на удовлетворяют (причем X обозначает выборку)
var ( θ ) = E [ var ( θ | X ) ] + var ( E [ θ | X ] ), предполагая, что все величины существуют, можно ожидать, что апостериорные дисперсия должна быть меньше в среднем (в X ). Это, в частности, тот случай, когда задняя дисперсия постоянна по XθИкс
var ( θ ) = E [ var ( θ | X)) ] + var ( E [ θ | X] )
ИксИкс, Но, как показывает другой ответ, могут быть реализации задней дисперсии, которые больше, так как результат остается только в ожидании.
По словам Эндрю Гельмана,
Мы рассмотрим это в главе 2 « Байесовского анализа данных» , я думаю, в паре проблем с домашней работой. Короткий ответ заключается в том, что, как ожидается, дисперсия апостериорных уменьшается по мере получения дополнительной информации, но, в зависимости от модели, в отдельных случаях дисперсия может увеличиваться. Для некоторых моделей, таких как нормальная и биномиальная, задняя дисперсия может только уменьшаться. Но рассмотрим t-модель с низкими степенями свободы (которую можно интерпретировать как смесь нормалей с общим средним и различными дисперсиями). Если вы наблюдаете экстремальное значение, это свидетельствует о том, что дисперсия высока, и ваша задняя дисперсия действительно может возрасти.
@ Сиань, не могли бы вы взглянуть на мой «ответ», который, кажется, противоречит вашему? Если Гельман и вы скажете что-нибудь о байесовской статистике, я гораздо больше склонен доверять вам, чем себе ...
Кристоф Ханк
1
Нет конфликта между нашими ответами. В BDA есть даже упражнение, которое соответствует вашему примеру, то есть найти данные, которые устанавливают, что задняя дисперсия бета больше, чем предыдущая дисперсия.
Сиань
Интересным последующим вопросом будет: каковы условия, которые гарантируют сходимость дисперсии к 0 при увеличении размера выборки.
Жюльен
8
Это будет больше вопрос к @ Сиань, чем ответ.
В( θ | y) = α1β1( α1+ β1)2( α1+ β1+ 1 )= ( α0+ k ) ( n - k + β0)( α0+ n + β0)2( α0+ n + β0+ 1 ),
Прекрасная иллюстрация. И нет никакого различия между фактами, что реализованная апостериорная дисперсия больше, чем предыдущая дисперсия, и что ожидание меньше.
Сиань
1
Я предоставил ссылку на этот ответ как отличный пример того, что также обсуждалось здесь. Этот результат (эта разница иногда увеличивается при сборе данных) распространяется на энтропию.
Это будет больше вопрос к @ Сиань, чем ответ.
Следовательно, этот пример предлагает большую апостериорную дисперсию в биномиальной модели.
Конечно, это не ожидаемая задняя дисперсия. В этом ли несоответствие?
Соответствующий показатель
источник