Вопросы с тегом «bayesian»

18
Как байесовская система лучше интерпретируется, когда мы обычно используем неинформативные или субъективные априорные значения?

Часто утверждают, что байесовский каркас имеет большое преимущество в интерпретации (по сравнению с частыми), потому что он вычисляет вероятность параметра с учетом данных - вместо как в Частые рамки. Все идет нормально.p ( x | θ )p(θ|x)p(θ|x)p(\theta|x)p(x|θ)p(x|θ)p(x|\theta) Но все уравнение...

18
Почему байесовская статистика не более популярна для статистического контроля процессов?

Мое понимание байесовской и частой дискуссии состоит в том, что статистика для частых: является (или претендует на то, чтобы быть) объективным или, по крайней мере, непредвзято поэтому разные исследователи, используя разные допущения, могут все же получить количественно сопоставимые результаты пока...

18
Делает ли байесовская статистика метаанализ устаревшим?

Мне просто интересно, будет ли применяться байесовская статистика последовательно от первого исследования к последнему, если это сделает метаанализ устаревшим. Например, предположим, что 20 исследований были проведены в разные моменты времени. Оценка или распределение первого исследования были...

18
Многомерный нормальный задний

Это очень простой вопрос, но я не могу найти вывод ни в Интернете, ни в книге. Я хотел бы увидеть, как один байесовский обновляет многомерное нормальное распределение. Например: представьте, что P(x|μ,Σ)P(μ)==N(μ,Σ)N(μ0,Σ0).P(x|μ,Σ)=N(μ,Σ)P(μ)=N(μ0,Σ0). \begin{array}{rcl} \mathbb{P}({\bf x}|{\bf...

18
В чем проблема с эмпирическими приорами?

В литературе я иногда натыкаюсь на замечание, что выбор априорных значений, которые зависят от самих данных (например, Zellners g-prior), можно подвергнуть критике с теоретической точки зрения. Где именно проблема, если предшествующее не выбрано независимо от...

18
Какая хорошая книга о философии байесовского мышления?

Какая хорошая книга о байесовской философии, противопоставляющая субъективистов против объективистов, объясняющая представление о вероятности как состоянии знаний в байесовской статистике и т. Д.? Может быть, книга Сэвиджа? Сначала я думал, что Бергер (1986) может работать, но это не то, что я ищу....

18
Может ли апостериорная вероятность быть> 1?

В формуле Байеса: P(x|a)=P(a|x)P(x)P(a)P(x|a)=P(a|x)P(x)P(a)P(x|a) = \frac{P(a|x) P(x)}{P(a)} может ли задняя вероятность превысить 1?P(x|a)P(x|a)P(x|a) Я думаю, что это возможно, если, например, предполагая, что и , и . Но я не уверен в этом, потому что это будет означать, что вероятность будет...

18
Когда байесовские методы предпочтительнее, чем Frequentist?

Я действительно хочу узнать о методах Байеса, поэтому я пытался немного научить себя. Тем не менее, мне трудно понять, когда использование байесовских методов дает преимущество перед методами Frequentist. Например: я видел в литературе немного о том, как некоторые используют информативные приоры, в...

17
Лучшие книги для введения в статистический анализ данных?

Locked . Этот вопрос и его ответы заблокированы, потому что вопрос не по теме, но имеет историческое значение. В настоящее время он не принимает новые ответы или взаимодействия. Я купил эту книгу: Как измерить что-либо: найти значение нематериальных активов в бизнесе и Head First Анализ данных:...

17
Непараметрический байесовский анализ в R

Я ищу хороший учебник по кластеризации данных при Rиспользовании иерархического процесса Дирихле (HDP) (один из последних и популярных непараметрических байесовских методов). Существует DPpackage(ИМХО, самый полный из всех доступных) Rдля непараметрического байесовского анализа. Но я не могу понять...

17
Пример для априора, который в отличие от Джеффриса приводит к апостериорному, который не является инвариантным

Я публикую «ответ» на вопрос, который я задал здесь две недели назад: почему полезен Джефрис? Это действительно был вопрос (и я тоже не имел права публиковать комментарии в то время), поэтому я надеюсь, что это нормально: В приведенной выше ссылке обсуждается, что интересная особенность априорной...

17
Выбор между неинформативными бета-приорами

Я ищу неинформативные приоры для бета-дистрибуции для работы с биномиальным процессом (Hit / Miss). Сначала я подумал об использовании которые генерируют равномерный PDF, или Джеффри до α = 0,5 , β = 0,5 . Но я на самом деле ищу априоры, которые оказывают минимальное влияние на последующие...

17
LASSO и гребень с байесовской точки зрения: как насчет параметра настройки?

Говорят, что штрафованные регрессионные оценки, такие как LASSO и ridge, соответствуют байесовским оценкам с определенными априорными значениями. Я предполагаю (поскольку я не знаю достаточно о байесовской статистике), что для фиксированного параметра настройки существует конкретный соответствующий...

17
Какая связь стоит за Jeffreys Priors и преобразованием, стабилизирующим дисперсию?

Я читал о «Джеффри до» в википедии: « Джеффри до» и видел, что после каждого примера описывается, как преобразование, стабилизирующее дисперсию, превращает «Джеффриса» в униформу. Например, для случая Бернулли говорится, что для монеты, которая является головой с вероятностью γ∈[0,1]γ∈[0,1]\gamma...

17
Входные параметры для использования скрытого распределения Дирихле

При использовании тематического моделирования (скрытое распределение Дирихле) количество тем является входным параметром, который необходимо указать пользователю. Мне кажется, что мы также должны предоставить набор кандидатских тем, по которым процесс Dirichlet должен сэмплировать? Правильно ли мое...

17
Частота и приоры

Робби Маккиллиам говорит в комментарии к этому сообщению: Следует отметить, что, с точки зрения частых, нет никаких причин, по которым вы не можете включить в модель предыдущие знания. В этом смысле представление «частых» проще: у вас есть только модель и некоторые данные. Нет необходимости...

17
Байесовское обновление с новыми данными

Как мы можем вычислить апостериор с предшествующим N ~ (a, b) после наблюдения n точек данных? Я предполагаю, что мы должны вычислить среднее значение выборки и дисперсию точек данных и выполнить какое-то вычисление, которое объединяет апостериор с предыдущим, но я не совсем уверен, как выглядит...

17
Может ли кто-нибудь объяснить мне орехи на английском языке?

Мое понимание алгоритма следующее: Пробоотборник без разворота (NUTS) - это метод Гамильтона Монте-Карло. Это означает, что это не метод цепей Маркова, и, таким образом, этот алгоритм избегает части случайного блуждания, которая часто считается неэффективной и медленно сходится. Вместо случайного...

17
При каких условиях совпадают байесовские и частые точечные оценки?

С фиксированным априором оценки ML (частота - максимальная вероятность) и MAP (байесовская апостериорная) совпадают. В целом, однако, я говорю о точечных оценках, полученных как оптимизаторы некоторой функции потерь. Т.е. (Bayesian)  х...