Недавно я начал читать «Введение в байесовскую статистику», 2-е издание, Bolstad. У меня был вводный класс статистики, который охватывал в основном статистические тесты, и я почти прошел класс регрессионного анализа. Какие еще книги я могу использовать, чтобы дополнить мое понимание этой?
Я прошел через первые 100-125 страниц. После этого книга начинает рассказывать о проверке гипотез, о чем я очень рад рассказать, но меня бросает несколько вещей:
- Использование функций плотности вероятности в расчетах. Другими словами, как оценить такие уравнения.
- Это целое предложение: «Предположим, что мы используем бета (1,1) перед числом pi. Затем, если y = 8, апостериорная плотность равна бета (9,3). Апостериорная вероятность нулевой гипотезы равна ...» Я полагаю бета (1,1) относится к PDF, где среднее значение равно 1, а стандартное значение равно 1? Я не понимаю, как это изменится на бета (9,3) как функция задней плотности.
Я понимаю концепцию приоры и постеры и понимаю, как их применять вручную, используя таблицу. Я понимаю (я думаю!), Что пи представляет предполагаемую долю населения или вероятность.
Я не понимаю, как связать это с данными, с которыми я сталкивался бы ежедневно и получал результаты.
hypothesis-testing
bayesian
Джастин Бозонье
источник
источник
Ответы:
Я думаю, что вы все еще думаете об этом с частой точки зрения: если вы ищете точную оценку, апостериор не даст ее вам. Вы вставляете PDF-файлы, вы получаете PDF-файлы. Вы можете получить точечные оценки, рассчитав статистику на основе вашего апостериорного распределения, но я вернусь к этому чуть позже.
p ( x ) ππ(x) - это то же самое, что и : оба файла PDF. просто традиционно используется для обозначения того, что конкретный PDF имеет предшествующую плотность.p(x) π
Я подозреваю, что вы не получаете приоры и постеры так же хорошо, как вы думаете, поэтому давайте вернемся к фундаментальной основе байесовской статистики: субъективной вероятности .
Мысленный эксперимент в субъективной вероятности
Допустим, я дарю вам монету и спрашиваю, считаете ли вы эту монету справедливой монетой. Вы слышали, что многие люди говорят о нечестных монетах в классе вероятности, но вы никогда не видели их в реальной жизни, поэтому вы отвечаете: «Да, конечно, я думаю, что это справедливая монета». Но тот факт, что я даже задаю вам этот вопрос, немного отталкивает вас, поэтому, хотя вы считаете, что это справедливо, вы бы не удивились, если бы это было не так. Гораздо менее удивлен, чем если бы вы нашли эту монету в кармане (потому что вы предполагаете, что это вся настоящая валюта, и вы не доверяете мне прямо сейчас, потому что я веду себя подозрительно).
Теперь мы проводим несколько экспериментов. После 100 бросков монета возвращает 53 головы. Вы намного увереннее в том, что это справедливая монета, но вы все еще открыты для вероятности того, что это не так. Разница в том, что теперь вы были бы очень удивлены, если бы эта монета имела какой-то уклон.
Как мы можем представить здесь ваши предыдущие и последующие убеждения, в частности, относительно вероятности того, что монета покажет головы (которые мы будем обозначать )? В частой обстановке ваше предыдущее убеждение - ваша нулевая гипотеза - это то, что . После запуска эксперимента вы не можете отклонить нулевое значение, и поэтому вы продолжаете полагать, что да, монета, вероятно, справедлива. Но как мы можем объяснить изменение вашей уверенности в том, что монета справедлива? После эксперимента вы находитесь в положении, в котором вы могли бы поспорить, что монета справедлива, но перед экспериментом вы были бы трепетными.θ = 0,5θ θ=0.5
В байесовской системе вы выражаете свою уверенность в предложениях, рассматривая вероятности не как скалярные значения, а как случайные переменные, то есть функции. Вместо того, чтобы говорить мы говорим и тем самым заключаем в себе нашу уверенность в дисперсии PDF. Если мы устанавливаем высокую дисперсию, мы говорим: «Я думаю, что вероятность равна 0,5, но я не удивлюсь, если вероятность, которую я на самом деле наблюдаю в мире, далека от этого значения. Я думаю, что но, честно говоря, я не совсем уверен ". Устанавливая низкую дисперсию, мы говорим: «Я не только полагаю, что вероятность равна 0,5, но я был бы очень удивлен, если эксперименты дают значение, которое не очень близко кθ ∼ N ( 0,5 , σ 2 ) θ = 0,5 θ = 0,5 θ = 0,5θ=0.5 θ∼N(0.5,σ2) θ=0.5 θ=0.5 «Итак, в этом примере, когда вы начинаете эксперимент, у вас есть априор с высокой дисперсией. После получения данных, подтверждающих ваш априор, среднее значение априора осталось прежним, но дисперсия стала намного уже. Наша уверенность в том, что намного выше после запуска эксперимента, чем раньше.θ=0.5
Итак, как мы выполняем расчеты?
Мы начинаем с PDF-файлов и заканчиваем PDF-файлами. Когда вам нужно сообщить точечную оценку, вы можете рассчитать статистику, такую как среднее значение, медиана или способ вашего апостериорного распределения (в зависимости от вашей функции потерь, в которую я не буду сейчас вдаваться. Давайте просто придерживаться среднего). Если у вас есть закрытое решение для вашего PDF, определить эти значения будет тривиально. Если апостериор сложный, вы можете использовать такие процедуры, как MCMC, для выборки из апостериорного и получения статистики из выборки, которую вы нарисовали.
В примере, где у вас есть бета-версия и биноминальная вероятность, вычисление апостериора сводится к очень чистому вычислению. Данный:
Тогда задний сводится к:
Это произойдет всякий раз, когда у вас есть предварительная бета-версия и биноминальная вероятность, и причина этого должна быть очевидна в расчетах, предоставленных DJE . Когда конкретная модель априорного вероятности всегда дает апостериор, который имеет тот же тип распределения, что и предыдущий, взаимосвязь между типами распределений, использованных для априора и вероятности, называется сопряженной . Существует много пар распределений, которые имеют сопряженные отношения, и байесианцы очень часто используют сопряженность для упрощения вычислений. Учитывая определенную вероятность, вы можете сделать свою жизнь намного проще, выбрав сопряженный предшествующий (если он существует, и вы можете обосновать свой выбор предшествующего).
В общей параметризации нормального распределения два параметра обозначают среднее и стандартное отклонение распределения. Но это только то, как мы параметризуем нормальное распределение. Другие распределения вероятностей параметризованы очень по-разному.
Бета-распределение обычно параметризуется как где и называются параметрами "shape". Бета-версия чрезвычайно гибкая и принимает множество различных форм в зависимости от того, как установлены эти параметры. Чтобы проиллюстрировать, насколько эта параметризация отличается от вашего исходного предположения, вот как вы вычисляете среднее значение и дисперсию для бета-случайных переменных:Beta(α,β) α β
Как можно ясно видеть, среднее значение и дисперсия не являются частью параметризации этого распределения, но они имеют решения в замкнутой форме, которые являются простыми функциями входных параметров.
Я не буду подробно описывать различия в параметризации других хорошо известных дистрибутивов, но я рекомендую вам взглянуть на некоторые из них. Любой основной текст, даже Википедия , должен несколько описывать, как изменение параметров изменяет распределение. Вам также следует ознакомиться с отношениями между различными распределениями (например, - это то же самое, что ).U n i f o r m ( 0 , 1 )Beta(1,1) Uniform(0,1)
источник
Бета - распределение имеет вид . Бета-версия (1,1) имеет параметры . (К сожалению, такого рода статистические сокращения накладывают на читателя бремя, чтобы узнать, как конкретизируется конкретная модель!)(α,β)=(1,1)p(θ)=Γ(α)Γ(β)Γ(α+β)θα−1(1−θ)β−1 (α,β)=(1,1)
Бета-версия с биномиальной вероятностью (фиксированное число испытаний с бинарными исходами и фиксированными вероятностями успеха / неудачи) обладает свойством сопряженности, что позволяет заднему (произведение априора и вероятности) записываться в закрытой форме:
Для конкретного примера в тексте автор указывает, что бета (1,1) до с данными n = 10 и y = 8 производит бета (1 + 8,1 + 2) = бета (9,3) апостериор распределение по .θ
Это выражение в закрытой форме удобно, но ни в коем случае не обязательно. Умножение плотности вероятности может быть сделано так же, как умножение других математических выражений; трудности возникают из-за того, что многие произведения плотностей не так легко переписать, как бета-предпоследняя / биномиальная вероятность. К счастью, именно здесь компьютеры справляются с трудностями.
источник
Если вы ищете более мягкий подход, я настоятельно рекомендую книгу Крушке, в которой для объяснения основных понятий используется R. Это очень практичный и практический подход к изучению байесовской статистики, и на его веб-сайте вы можете найти все используемые коды.
Кто-то также порекомендовал мне текст Cam.Davidson.Pilon, пока не смотрел его, но его можно найти здесь .
источник