Очень хороший вопрос! Действительно, имеет смысл, что «хорошее» априорное распределение дает положительную вероятность или положительное значение плотности «истинному» параметру , но с чисто точки зрения это не должно иметь место. Простой контрпример к этой «интуиции», что должно быть необходимо, когда - это предшествующая плотность, а - это «истинное» значение параметра, это блестящий Результат минимаксности Casella и Strawderman (1981): при оценке среднего значения на основе одного наблюдения с дополнительным ограничением , π (θ0π ( ⋅ ) θ 0 μ x ∼ N ( μ , 1 ) | μ | < ρ ρ ρ ≤ 1.0567 { - ρ , ρ } π - ρ ρ μ π ( θ ) = 1
π(θ0)>0
π(⋅)θ0μx∼N(μ,1)|μ|<ρρдостаточно мала, в частности, , минимаксная оценка соответствует (наименее благоприятной) униформе до , что означает, что дает равный вес и ( и ни к какому другому значению среднего )
Когда увеличивается, наименее благоприятный априор видит, что его поддержка растет, но остается конечным набором возможных значений. Однако апостериорное ожидание, , может принимать любое значение .
ρ≤1.0567{−ρ,ρ}π−ρρμπ(θ)=12δ−ρ(θ)+12δρ(θ)
ρE[μ|x](−ρ,ρ)
Суть обсуждения (см. Комментарии) может заключаться в том, что, если бы оценка Байеса ограничивалась точкой поддержки
, его свойства были бы совершенно другими.π(⋅)
Аналогичным образом, при рассмотрении допустимых оценок, оценки Байеса, связанные с надлежащим априором на компактном множестве, обычно допустимы, хотя они имеют ограниченную поддержку.
В обоих случаях понятие «частое лицо» (минимаксность или допустимость) определяется по возможному диапазону параметров, а не по «истинному» значению параметра (что дает ответ на вопрос 4.) Например, если посмотреть на последующий риск
или с риском Байеса
не содержит истинного значения .
∫ΘL(θ,δ)π(θ|x)dθ
∫X∫ΘL(θ,δ)π(θ)f(x|θ)dθdx
θ0
Кроме того, как указано в приведенном выше примере, когда оценщик Байеса определяется формальным выражением, таким как апостериорное среднее значение
для квадратичной (или ) потери, эта оценка может принимать значения вне поддержки в случаях, когда эта поддержка не является выпуклой.
θ^π(x)=∫Θθπ(θ|x)dθ
L2π
Как в сторону, при чтении
для того, чтобы истинное θ сгенерировало данные (то есть «существует»), θ должно быть возможным изменением под π, например, иметь ненулевую вероятность, ненулевую плотность
Я считаю это искажением смысла априора. Предыдущее распределение не должно означать фактический физический (или реальный) механизм, который видел значение параметра сгенерированное из последующим наблюдением сгенерированным из . Предыдущее является эталонной мерой в пространстве параметров, которая включает в себя предварительную информацию и субъективные представления о параметре, и это ни в коем случае не является уникальным. Байесовский анализ всегда относительно предшествующего, выбранного для проведения этого байесовского анализа. Следовательно, нет абсолютной необходимости, чтобы истинный параметр принадлежал поддержке . Очевидно, что когда этот носитель является компактным связным множеством, π x f ( x |θ0πxf(x|θ0)πAлюбое значение параметра вне множества не может быть последовательно оценено апостериорным средним но это даже не мешает оценке быть допустимой.Aθ^π
Да, обычно предполагается, что истинная находится в области предшествующего уровня. Статистик обязан убедиться, что это так.θ
Обычно да. Например, при оценке среднего значения или параметра местоположения любое предшествующее значение будет иметь истинное значение в своей области. (Если известно, что параметр больше нуля, например, «среднее число дорожно-транспортных происшествий на мосту Бэй в день», очевидно, что для предыдущего не нужно включать отрицательные значения.) Если мы оцениваем вероятность, то любой до будет иметь истинное значение в своей области. Если мы создаем априор по термовому варианту, любой априор будет иметь истинное значение в своей области ... и так далее.[ 0 , 1 ] ( 0 , ∞ )(−∞,∞) [0,1] (0,∞)
Если ваш апостериал «сложен» на одном краю домена предыдущего, а ваш предыдущий накладывает ненужные ограничения на домен на том же крае, это является специальным показателем того, что излишнее ограничение может вызывать у вас проблемы. Но это должно происходить только в том случае, если а) вы создали априор, форма которого определяется главным образом удобством, а не фактическим предварительным знанием, и б) форма априора, обусловленная удобством, ограничивает область параметра до подмножества того, что его " естественным «доменом» можно считать.
Примером этого является старая, как мы надеемся, давно устарелая практика ограничения априора на член дисперсии немного от нуля, чтобы избежать потенциальных вычислительных трудностей. Если истинное значение дисперсии находится между границей и нулем, хорошо ... но на самом деле, размышление о потенциальных значениях дисперсии с учетом данных или (например) внесение априорного значения в журнал отклонений вместо этого позволит Вы должны избежать этой проблемы, и подобный мягкий ум должен позволить вам избегать ограничивающих домен приоров в целом.
источник
Простой, интуитивно понятный ответ заключается в том, что априор отражает ваши предыдущие знания о и минимальные знания, которые вы должны иметь, о его предметной области. Если вы используете ограниченный априор, то вы предполагаете, что значения за пределами имеют нулевую вероятность, невозможны, и это очень сильное предположение, которое не следует делать без хорошего обоснования. Вот почему люди, которые не хотят делать сильные предварительные предположения, используют неопределенные априорные значения для to .- ∞ ∞θ −∞ ∞
Помимо ограниченного случая, когда ваш образец растет или, точнее, передает больше информации, ваш апостериор должен, наконец, сходиться к независимо от предшествующего уровня .θ
источник