Вопросы с тегом «prior»

21
Естественная интерпретация гиперпараметров LDA

Может кто-нибудь объяснить, какова естественная интерпретация гиперпараметров LDA? ALPHAи BETAявляются параметрами распределения Дирихле для (по документу) темы и (по теме) словосочетания соответственно. Однако кто-то может объяснить, что значит выбирать большие значения этих гиперпараметров по...

21
Наличие сопряженного априора: глубокая собственность или математическая случайность?

Некоторые дистрибутивы имеют сопряженные приоры, а некоторые нет. Это различие просто случайность? То есть вы занимаетесь математикой, и она работает так или иначе, но на самом деле она не говорит вам ничего важного о распределении, кроме самого факта? Или наличие или отсутствие сопряженного...

21
Почему

Фон Одним из наиболее часто используемых слабых предшествующих отклонений является обратная гамма с параметрами (Gelman 2006) .α = 0,001 , β= 0,001αзнак равно0,001,βзнак равно0,001\alpha =0.001, \beta=0.001 Однако это распределение имеет 90% CI приблизительно .[ 3 × 1019, ∞...

21
Слабо информативные априорные распределения для параметров шкалы

Я использовал логарифмические нормальные распределения в качестве предыдущих распределений для параметров масштаба (для нормальных распределений, t-распределений и т. Д.), Когда у меня есть приблизительное представление о том, каким должен быть масштаб, но я хочу ошибиться, говоря, что я не знаю...

21
Задний очень отличается от предыдущего и вероятности

Если априор и вероятность сильно отличаются друг от друга, то иногда возникает ситуация, когда апостериор не похож ни на один из них. Посмотрите, например, эту картинку, которая использует нормальные распределения. Хотя это математически правильно, это, похоже, не соответствует моей интуиции - если...

20
Что является / является неявным приоритетом в статистике частых посещений?

Я слышал, что Джейнс утверждает, что часто работающие работают с «неявным априором». Каковы или являются эти неявные приоры? Означает ли это, что модели для частых - все это особые случаи байесовских моделей, которые ждут своего...

18
В чем проблема с эмпирическими приорами?

В литературе я иногда натыкаюсь на замечание, что выбор априорных значений, которые зависят от самих данных (например, Zellners g-prior), можно подвергнуть критике с теоретической точки зрения. Где именно проблема, если предшествующее не выбрано независимо от...

18
Как байесовская система лучше интерпретируется, когда мы обычно используем неинформативные или субъективные априорные значения?

Часто утверждают, что байесовский каркас имеет большое преимущество в интерпретации (по сравнению с частыми), потому что он вычисляет вероятность параметра с учетом данных - вместо как в Частые рамки. Все идет нормально.p ( x | θ )p(θ|x)p(θ|x)p(\theta|x)p(x|θ)p(x|θ)p(x|\theta) Но все уравнение...

17
Какая связь стоит за Jeffreys Priors и преобразованием, стабилизирующим дисперсию?

Я читал о «Джеффри до» в википедии: « Джеффри до» и видел, что после каждого примера описывается, как преобразование, стабилизирующее дисперсию, превращает «Джеффриса» в униформу. Например, для случая Бернулли говорится, что для монеты, которая является головой с вероятностью γ∈[0,1]γ∈[0,1]\gamma...

17
Существует ли байесовская интерпретация линейной регрессии с одновременной регуляризацией L1 и L2 (она же упругая сеть)?

Хорошо известно, что линейная регрессия с штрафом эквивалентна нахождению оценки MAP с учетом гауссовского априорного коэффициента. Точно так же использование штрафа l 1 эквивалентно использованию распределения Лапласа в качестве предыдущего.l2l2l^2l1l1l^1 Нередко используют некоторую взвешенную...

17
Частота и приоры

Робби Маккиллиам говорит в комментарии к этому сообщению: Следует отметить, что, с точки зрения частых, нет никаких причин, по которым вы не можете включить в модель предыдущие знания. В этом смысле представление «частых» проще: у вас есть только модель и некоторые данные. Нет необходимости...

17
Байесовское обновление с новыми данными

Как мы можем вычислить апостериор с предшествующим N ~ (a, b) после наблюдения n точек данных? Я предполагаю, что мы должны вычислить среднее значение выборки и дисперсию точек данных и выполнить какое-то вычисление, которое объединяет апостериор с предыдущим, но я не совсем уверен, как выглядит...

17
Пример для априора, который в отличие от Джеффриса приводит к апостериорному, который не является инвариантным

Я публикую «ответ» на вопрос, который я задал здесь две недели назад: почему полезен Джефрис? Это действительно был вопрос (и я тоже не имел права публиковать комментарии в то время), поэтому я надеюсь, что это нормально: В приведенной выше ссылке обсуждается, что интересная особенность априорной...

17
Выбор между неинформативными бета-приорами

Я ищу неинформативные приоры для бета-дистрибуции для работы с биномиальным процессом (Hit / Miss). Сначала я подумал об использовании которые генерируют равномерный PDF, или Джеффри до α = 0,5 , β = 0,5 . Но я на самом деле ищу априоры, которые оказывают минимальное влияние на последующие...

16
Какие предыдущие распределения можно / нужно использовать для дисперсии в иерархической байесовской модели, когда средняя дисперсия представляет интерес?

В своей широко цитируемой статье априорные распределения для параметров дисперсии в иерархических моделях (916 цитата на Google Scholar) Гельман предлагает, что хорошими неинформативными априорными распределениями для дисперсии в иерархической байесовской модели являются равномерное распределение и...

16
Как байесовская статистика справляется с отсутствием приоров?

Этот вопрос был вдохновлен двумя недавними взаимодействиями, которые у меня были: одно здесь, в резюме , другое на economics.se. Там, я отправил ответ на известный «Конверт парадокса» (заметьте, не как на «правильный ответ» , но в качестве ответа , вытекающих из конкретных предположений о структуре...

16
Как выбрать приоритет в оценке байесовских параметров

Я знаю 3 метода оценки параметров, ML, MAP и байесовский подход. А для MAP и байесовского подхода нам нужно выбирать априоры для параметров, верно? Скажем, у меня есть эта модель , в которой α , β являются параметрами, чтобы выполнить оценку с использованием MAP или байесовского алгоритма, я...

15
Выборка из неправильного распределения (с использованием MCMC и других)

Мой основной вопрос: как бы вы пробовали неправильный дистрибутив? Имеет ли смысл пробовать неправильный дистрибутив? Здесь комментарии Сианя как бы касаются вопроса, но я искал некоторые подробности по этому поводу. Более конкретно для MCMC: Говоря о MCMC и читая статьи, авторы подчеркивают, что...

15
Плоские, сопряженные и гиперприоры. Кто они такие?

В настоящее время я читаю о байесовских методах в вычислительной молекулярной эволюции Янга. В разделе 5.2 говорится о приорах, в частности неинформативных / плоских / расплывчатых / диффузных, сопряженных и гиперприорных. Возможно, это требует чрезмерного упрощения, но может ли кто-нибудь...