Неужели байесовцы когда-либо утверждают, что их подход обобщает подход, основанный на частоте, потому что можно использовать неинформативные априорные значения и, следовательно, можно восстановить типичную структуру модели частых лиц?
Кто-нибудь может направить меня туда, где я могу прочитать об этом аргументе, если он действительно используется?
РЕДАКТИРОВАТЬ: Этот вопрос, возможно, сформулирован не совсем так, как я хотел сказать. Вопрос заключается в следующем: «есть ли какая-либо ссылка на обсуждение случаев, когда байесовский подход и подход на основе частотности пересекаются / пересекаются / имеют что-то общее через использование определенного априора?» Одним из примеров будет использование неправильного априорного , но я уверен, что это только вершина айсберга.
источник
Ответы:
Я видел два выдвинутых аргумента о том, что байесовский анализ является обобщением частотного анализа. Оба были немного насмешливыми, и больше заставляли людей распознавать предположения о регрессионных моделях, используя приоры в качестве контекста.
Аргумент 1: Частотный анализ - это байесовский анализ с чисто неинформативным априорным центром, сосредоточенным на нуле (да, не имеет значения, где он центрирован, но игнорируйте это). Это обеспечивает как контекст, для которого байесовский анализ может извлечь результаты анализа часто используемых данных, так и объясняет, почему вы можете избежать использования некоторых «байесовских» методов, таких как MCMC, для извлечения оценок часто используемых в ситуациях, когда, скажем, сходимость с максимальной вероятностью является сложной, и люди признают, что когда они говорят «данные говорят сами за себя» и тому подобное, они на самом деле говорят, что заранее все значения одинаково вероятны.
Аргумент 2. Любому термину регрессии, который вы не включили в модель, фактически присваивается приоритет с нулевым центром без отклонений. Это не столько аргумент «байесовский анализ - это обобщение», сколько аргумент «Есть априоры повсюду , даже в ваших моделях частых исследований».
источник
Краткий ответ, вероятно, «да - и вам даже не нужен фиксированный априор для этого аргумента».
Например, оценка Maximum A Posteriori (MAP) является обобщением максимальной вероятности, которая включает в себя априор, и существуют частые подходы, которые аналитически эквивалентны нахождению этого значения. Частотист называет «предыдущий» «ограничением» или «штрафом» для функции правдоподобия и получает тот же ответ. Таким образом, частые люди и байесовцы могут указывать на одну и ту же вещь как на лучшую оценку параметров, даже если философии разные. Раздел 5 этой частой статьи является одним из примеров, где они эквивалентны.
Более длинный ответ больше похож на «да, но часто есть другие аспекты анализа, которые различают два подхода. Тем не менее, даже эти различия не обязательно железные во многих случаях».
Например, хотя байесовцы иногда используют оценку MAP (апостериорный режим), когда это удобно, вместо этого они обычно подчеркивают среднее значение апостериорного значения. С другой стороны, заднее среднее также имеет аналог-частоту, называемый «оценкой в мешках» (из «агрегирования начальной загрузки»), которая может быть почти неразличимой (см. Этот pdf для примера этого аргумента). Так что на самом деле это тоже не «жесткое» различие.
На практике все это означает, что даже когда частый человек делает что-то, что байесовец считает абсолютно незаконным (или наоборот), часто (по крайней мере в принципе) существует подход из другого лагеря, который дает почти такой же ответ.
Основное исключение состоит в том, что некоторые модели действительно трудно подобрать с точки зрения частых людей, но это скорее практический вопрос, чем философский.
источник
Эдвин Джейнс был одним из лучших в освещении связей между байесовским и частым умозаключениями. Его бумажные доверительные интервалы по сравнению с байесовскими интервалами (поиск в Google выводит их) как очень тщательное сравнение - и я думаю, что это справедливое сравнение.
Оценка малых площадей - это еще одна область, где ответы ML / REML / EB / HB, как правило, близки.
источник
Многие из этих комментариев предполагают, что «частый» означает «оценка максимального правдоподобия». У некоторых людей есть другое определение: «частый» означает тип анализа долгосрочных выводных свойств любого метода вывода - будь то байесовский метод, или метод моментов, или максимальная вероятность, или что-то, сформулированное в не вероятностном условия (например, SVM) и т. д.
источник
Я хотел бы услышать об этом от Стефана или другого эксперта Байеса. Я бы сказал нет, потому что это другой подход, а не обобщение. В другом контексте это обсуждалось здесь раньше. Не думайте, что только потому, что плоские априорные результаты дают результаты, близкие к максимальной вероятности, что байесовский метод с плоским априором является частым! Я думаю, что это было бы ложной презумпцией, которая заставила бы вас думать, что, делая предыдущий произвольный выбор, вы обобщаете другие возможные приоры. Я так не думаю, и я почти уверен, что большинство байесовцев тоже так не считают.
Так что некоторые люди спорят, но я не думаю, что они должны быть классифицированы как байесовские
хотя Стефан указал на трудности с сильной классификацией. Строго говоря, если слово будет когда-либо, тогда я думаю, что это может зависеть от того, как вы определяете байесовский.
источник