Может ли кто-нибудь дать краткое изложение различий между байесовским и частотным подходом к вероятности?
Из того, что я понимаю:
Представление «частые лица» состоит в том, что данные представляют собой воспроизводимую случайную выборку (случайную переменную) с определенной частотой / вероятностью (которая определяется как относительная частота события, когда число испытаний приближается к бесконечности). Базовые параметры и вероятности остаются постоянными в течение этого повторяемого процесса, и что изменение обусловлено изменчивостью а не распределением вероятности (которое фиксировано для определенного события / процесса).
Байесовское представление состоит в том, что данные являются фиксированными, в то время как частота / вероятность для определенного события может измениться, означая, что параметры распределения изменяются. По сути, полученные вами данные изменяют предыдущее распределение параметра, который обновляется для каждого набора данных.
Мне кажется, что частотный подход более практичен / логичен, так как кажется разумным, что события имеют определенную вероятность и что вариация находится в нашей выборке.
Кроме того, большая часть анализа данных, полученных в ходе исследований, обычно проводится с использованием частотного подхода (т. Е. Доверительных интервалов, проверки гипотез с использованием p-значений и т. Д.), Поскольку это легко понять.
Мне было просто интересно, может ли кто-нибудь дать мне краткое изложение их интерпретации байесовского и частичного подходов, включая байесовские статистические эквиваленты частичного p-значения и доверительного интервала. Кроме того, приветствуются конкретные примеры того, где один метод предпочтительнее другого.
Ответы:
В частом подходе утверждается, что единственный смысл, в котором вероятности имеют значение, - это предельное значение числа успехов в последовательности испытаний, т.е.
где - количество успехов, а n - количество испытаний. В частности, не имеет смысла связывать распределение вероятностей с параметром .k n
Например, рассмотрим выборки из распределения Бернулли с параметром p (т.е. они имеют значение 1 с вероятностью pX1,…,Xn p p и 0 с вероятностью ). Мы можем определить частоту успеха выборки, чтобы быть1−p
и говорить о распределении р обусловливающих значений р , но это не имеет смысла , чтобы инвертировать этот вопрос и начать говорить о распределении вероятностей рp^ p p обусловливающего наблюдаемого значения р . В частности, это означает, что когда мы вычисляем доверительный интервал, мы интерпретируем концы доверительного интервала как случайные величины и говорим о «вероятности того, что интервал включает в себя истинный параметр», а не о «вероятности того, что параметр является внутри доверительного интервала ».p^
В байесовском подходе мы интерпретируем распределения вероятностей как количественную оценку нашей неопределенности относительно мира. В частности, это означает, что теперь мы можем осмысленно говорить о вероятностных распределениях параметров, поскольку, хотя параметр является фиксированным, наше знание его истинного значения может быть ограничено. В приведенном выше примере, мы можем инвертировать распределение вероятностей с помощью закона Байеса, чтобы датьf(p^∣p)
Загвоздка в том, что мы должны ввести предварительное распределение в наш анализ - это отражает наше мнение о значении прежде чем мы увидим фактические значения X i . Роль предшествующего часто подвергается критике в частом подходе, так как утверждается, что он привносит субъективность в мир строгой и объектной вероятности.p Xi
В байесовском подходе больше не говорится о доверительных интервалах, но вместо вероятных интервалов, которые имеют более естественную интерпретацию - при 95% вероятном интервале мы можем присвоить 95% вероятности того, что параметр находится внутри интервала.
источник
Вы правы в своей интерпретации вероятности часто встречающегося: случайность в этой настройке просто из-за неполной выборки. С байесовской точки зрения вероятности являются «субъективными» в том смысле, что они отражают неопределенность агента относительно мира. Не совсем правильно говорить, что параметры распределений «меняются». Поскольку мы не располагаем полной информацией о параметрах, наша неопределенность в отношении них изменяется по мере сбора дополнительной информации.
Обе интерпретации полезны в приложениях, и что более полезно, зависит от ситуации. Вы можете проверить блог Эндрю Гельмана для идей о байесовских приложениях. Во многих ситуациях то, что байесовцы называют «априорами», часто называют «регуляризацией», и поэтому (с моей точки зрения) волнение может покинуть комнату довольно быстро. Фактически, согласно теореме Бернштейна-фон Мизеса, байесовский и частотный выводы фактически асимптотически эквивалентны при довольно слабых предположениях (хотя, в частности, теорема не выполняется для бесконечномерных распределений). Вы можете найти множество ссылок об этом здесь .
Поскольку вы просили интерпретации: я думаю, что точка зрения Frequentist имеет большой смысл при моделировании научных экспериментов, как это было задумано. Для некоторых приложений в машинном обучении или для моделирования индуктивного мышления (или обучения) байесовская вероятность имеет для меня больше смысла. Есть много ситуаций, в которых моделирование события с фиксированной, «истинной» вероятностью кажется неправдоподобным.
Для игрушечного примера, возвращающегося к Лапласу , рассмотрим вероятность того, что завтра взойдет солнце. С точки зрения Frequentist, мы должны установить что-то вроде бесконечного множества вселенных, чтобы определить вероятность. Как байесовцы, существует только одна вселенная (или, по крайней мере, их не должно быть много). Наша неуверенность в отношении восхода солнца подавляется из-за нашей очень, очень сильной предварительной веры в то, что оно снова взойдет завтра.
источник
Байесовская интерпретация вероятности является интерпретацией степени веры.
источник
Крис дает хорошее упрощенное объяснение, которое правильно разграничивает два подхода к вероятности. Но частая теория вероятностей - это больше, чем просто взгляд на долгосрочную долю успехов. Мы также рассматриваем данные, выбранные случайным образом из распределения, и оцениваем параметры распределения, такие как среднее значение и дисперсию, используя определенные типы средних значений данных (например, для среднего значения это среднее арифметическое наблюдений. Теория частот часто связывает вероятность с оценкой, которая называется распределением выборки.
В теории частот мы можем показать для таких параметров, как среднее значение, взятые путем усреднения из выборок, что оценка будет сходиться к истинному параметру. Распределение выборки используется для описания того, насколько близка оценка к параметру для любого фиксированного размера выборки n. Закрытие определяется мерой точности (например, среднеквадратичная ошибка).
Крис указывает на любой параметр, такой как среднее, байесовский придает ему предварительное распределение вероятностей. Затем с учетом данных правило Байеса используется для вычисления апостериорного распределения для параметра. Для байесовского метода все выводы о параметре основаны на этом апостериорном распределении.
Частые специалисты строят доверительные интервалы, которые являются интервалами вероятных значений параметра. Их построение основано на вероятности того, что если процесс, использованный для генерации интервала, был повторен много раз для независимых выборок, то доля интервалов, которая фактически будет включать в себя истинное значение параметра, будет, по крайней мере, некоторый заранее заданный уровень достоверности (например, 95% ).
Байесовцы используют апостериорное распределение для параметра, чтобы построить вероятные области. Это просто области в пространстве параметров, в которые интегрируется заднее распределение, чтобы получить заранее заданную вероятность (например, 0,95). Достоверные регионы интерпретируются байесовцами как регионы с высокой (например, предварительно заданной 0,95) вероятностью включения истинного значения параметра.
источник
С точки зрения «реального мира» я нахожу одно существенное различие между частым и классическим или байесовским «решением», которое применимо как минимум к трем основным сценариям. Разница в выборе методологии зависит от того, нужно ли вам решение, на которое влияет вероятность населения, или решение, на которое влияет индивидуальная вероятность. Примеры ниже:
Если существует известная 5-процентная вероятность того, что мужчины старше 40 лет умрут в течение определенного года и потребуют выплаты по страхованию жизни, страховая компания может использовать процент 5% населения, чтобы оценить свои расходы, но сказать, что каждый отдельный мужчина старше 40 лет имеет только вероятность смерти 5% ... бессмысленна ... Потому что вероятность смерти 100% у 5% - это частый подход. На индивидуальном уровне событие либо происходит (вероятность 100%), либо не происходит (вероятность 0%). Однако на основе этой ограниченной информации невозможно предсказать людей, которые имеют 100% вероятность смерти, и % «усредненной» вероятности населения бесполезен на индивидуальном уровне.
Приведенный выше аргумент в равной степени относится и к пожарам в зданиях, поэтому разбрызгиватели необходимы во всех зданиях в населении.
Оба приведенных выше аргумента в равной степени применимы и к бриджам, повреждениям или «взломам» информационных систем. Процент населения бесполезен, поэтому все системы должны быть защищены.
источник
Выбор интерпретации зависит от вопроса. Если вы хотите узнать шансы в азартной игре, классическая интерпретация решит вашу проблему, но статистические данные бесполезны, поскольку у честных костей нет памяти.
Если вы хотите предсказать будущее событие, основываясь на прошлом опыте, частая интерпретация является правильной и достаточной.
Если вы не знаете, произошло ли прошлое событие, и хотите оценить вероятность того, что оно произошло, вы должны принять свои прежние убеждения, то есть то, что вы уже знаете о вероятности того или иного события, и обновить свое мнение, когда приобретете новые данные.
Поскольку вопрос касается степени веры, и у каждого человека может быть разное представление о приорах, интерпретация обязательно субъективна, она же байесовская.
источник