Мы можем написать теорему Байеса как
где - апостериор, - условное распределение, а - априорное.
или же
где - апостериор, - функция правдоподобия, а - приоритет.L ( θ | x ) p ( θ )
Мой вопрос
- Почему байесовский анализ выполняется с использованием функции правдоподобия, а не условного распределения?
- Можете ли вы сказать словами, в чем разница между вероятностью и условным распределением? Я знаю, что вероятность - это не распределение вероятностей, а .
bayesian
likelihood
kzoo
источник
источник
Ответы:
Предположим, что у вас есть случайные величины (значения которых будут наблюдаться в вашем эксперименте), которые являются условно независимыми, учитывая, что , с условными плотностями , для . Это ваша (постулированная) статистическая (условная) модель, и условные плотности выражают для каждого возможного значения (случайного) параметра вашу неопределенность относительно значений , прежде чем вы получите доступ к любому реальные данные. С помощью условных плотностей вы можете, например, вычислить условные вероятности, такие как Θ = θ е X я | Θ (X1,…,Xn Θ=θ i = 1 , … , n θ Θ X i P { X 1 ∈ B 1 , … , X n ∈ B n ∣ Θ = θ } = ∫ B 1 × ⋯ × B n n ∏ i = 1 f X i ∣ Θ ( x i ∣ θ )fXi∣Θ(⋅∣θ) i=1,…,n θ Θ Xi
После того, как у вас есть доступ к фактическому образцу значений (реализаций) , которые наблюдались в одном прогоне вашего эксперимента, ситуация меняется: больше нет неопределенности в отношении наблюдаемых . Предположим, что случайное значение принимает значения в некотором пространстве параметров . Теперь вы определяете для этих известных (фиксированных) значений функцию помощью Обратите внимание, что , известная как «функция правдоподобия», является функцией(x1,…,xn) Xi X1,…,Xn Θ Π (x1,…,xn)
Отвечая на ваш вопрос, чтобы понять различия между понятиями условной плотности и вероятности, имейте в виду их математические определения (которые явно различны: это разные математические объекты с разными свойствами), а также помните, что условная плотность -прибор "объект / концепция", в то время как вероятность - "после выборки". Я надеюсь, что все это также поможет вам ответить, почему байесовский вывод (используя ваш способ выражения, который я не считаю идеальным) выполняется «с использованием функции правдоподобия, а не условного распределения»: цель байесовского вывода состоит в том, чтобы чтобы вычислить апостериорное распределение, и для этого мы опираемся на наблюдаемые (известные) данные.
источник
Пропорциональность используется для упрощения анализа
Байесовский анализ обычно делается с помощью еще более простого изложения теоремы Байеса, где мы работаем только с точки зрения пропорциональности по отношению к интересующему параметру. Для стандартной модели IID с плотностью выборки мы можем выразить это как:f(X|θ)
Это утверждение байесовского обновления работает с точки зрения пропорциональности по отношению к параметру . Он использует два упрощения пропорциональности: одно при использовании функции правдоподобия (пропорциональной плотности выборки) и одно сзади (пропорционально произведению правдоподобия и предшествующего значения). Поскольку апостериор является функцией плотности (в непрерывном случае), тогда нормирующее правило устанавливает мультипликативную константу, необходимую для получения действительной плотности (то есть, чтобы она интегрировалась в единицу).θ
Этот метод использования пропорциональности имеет то преимущество, что позволяет нам игнорировать любые мультипликативные элементы функций, которые не зависят от параметра . Это имеет тенденцию упрощать проблему, позволяя нам смести ненужные части математики и получить более простые утверждения механизма обновления. Это не математическое требование (поскольку правило Байеса работает и в непропорциональной форме), но оно упрощает наш мозг для крошечных животных.θ
Прикладной пример: рассмотрим модель IID с данными наблюдений . Для облегчения нашего анализа мы определяем статистику и , которые являются первыми двумя образцами моментов. Для этой модели у нас есть плотность выборки:X1,...,Xn∼IID N(θ,1) x¯=1n∑ni=1xi x¯¯=1n∑ni=1x2i
Теперь мы можем напрямую работать с этой плотностью выборки, если захотим. Но обратите внимание, что первые два члена в этой плотности являются мультипликативными константами, которые не зависят от . Раздражает необходимость отслеживать эти термины, поэтому давайте просто избавимся от них, поэтому у нас есть функция правдоподобия:θ
Это немного упрощает ситуацию, так как нам не нужно отслеживать дополнительный термин. Теперь мы можем применить правило Байеса, используя его полную версию уравнения, включая интегральный знаменатель. Но опять же, это требует, чтобы мы отслеживали другую раздражающую мультипликативную константу, которая не зависит от (больше раздражает, потому что мы должны решить интеграл, чтобы получить ее). Итак, давайте просто применим правило Байеса в его пропорциональной форме. Используя сопряженный априорный с некоторым известным параметром точности , мы получаем следующий результат ( заполнив квадрат ):θ θ∼N(0,λ0) λ0>0
Итак, из этой работы мы видим, что апостериорное распределение пропорционально нормальной плотности. Поскольку задняя часть должна быть плотной, это означает, что задняя часть является той нормальной плотностью:
Следовательно, мы видим, что апостериорный параметр обычно распределен с апостериорным средним и дисперсией, определяемой как:θ
Теперь полученное нами апостериорное распределение имеет константу интегрирования по фронту (которую мы легко можем найти, посмотрев на форму нормального распределения ). Но обратите внимание, что нам не нужно было беспокоиться об этой мультипликативной константе - вся наша работа удаляла (или вводила) мультипликативные константы всякий раз, когда это упрощало математику. Тот же самый результат может быть получен при отслеживании мультипликативных констант, но это намного сложнее.
источник
Я думаю, что ответ Дзэн действительно говорит вам, как концептуально отличаются функция правдоподобия и общая плотность значений случайных величин. Математически, как функция от x s и θ, они одинаковы, и в этом смысле вероятность можно рассматривать как плотность вероятности. Разница, на которую вы указываете в формуле для апостериорного распределения Байеса, является просто нотационной разницей. Но тонкость разницы хорошо объясняется в ответе дзен.i
Эта проблема возникла в других вопросах, обсуждаемых на этом сайте, относительно функции вероятности. Также другие комментарии Къетила и Дилипа, кажется, подтверждают то, что я говорю.
источник