Вопросы с тегом «prior»

15
Хребетная регрессия - байесовская интерпретация

Я слышал, что регрессия гребня может быть получена как среднее значение апостериорного распределения, если адекватно выбран априор. Является ли интуиция тем, что ограничения, установленные ранее для коэффициентов регрессии (например, стандартные нормальные распределения около 0), идентичны /...

15
Плоские, сопряженные и гиперприоры. Кто они такие?

В настоящее время я читаю о байесовских методах в вычислительной молекулярной эволюции Янга. В разделе 5.2 говорится о приорах, в частности неинформативных / плоских / расплывчатых / диффузных, сопряженных и гиперприорных. Возможно, это требует чрезмерного упрощения, но может ли кто-нибудь...

15
Какова интуиция за сменными образцами при нулевой гипотезе?

Тесты перестановки (также называемые тестом рандомизации, тестом повторной рандомизации или точным тестом) очень полезны и оказываются полезными, когда предположение о нормальном распределении, требуемое, например, t-testне выполняется, и когда преобразование значений путем ранжирования...

15
Почему никто не использует байесовский полиномиальный наивный байесовский классификатор?

Таким образом, в (неконтролируемом) текстовом моделировании скрытое распределение Дирихле (LDA) является байесовской версией вероятностного скрытого семантического анализа (PLSA). По сути, LDA = PLSA + Dirichlet перед его параметрами. Насколько я понимаю, LDA теперь является эталонным алгоритмом и...

14
Джеффрис априор для нескольких параметров

В некоторых случаях предварительная оценка Джеффриса для полной многомерной модели обычно считается неадекватной, например, в случае: (где ε ∼ N ( 0 , σ 2 ) , где μ и σ неизвестны), где предпочтительным является следующий априор (для полного предшествующего Джеффриса π ( μ , σ ) ∝ σ - 2 ): p ( μ ,...

14
Параметры без определенных априоров в Stan

Я только начал учиться использовать Стэн и rstan. Если я не всегда был озадачен тем, как работают JAGS / BUGS, я думал, что вы всегда должны были определять какое-то предварительное распределение для каждого параметра в модели, из которой нужно извлечь. Похоже, что вам не нужно делать это в Stan на...

13
Создание байесовского априора по частому результату

Как можно превратить частый результат в байесовский априор? Рассмотрим следующий довольно общий сценарий: в прошлом проводился эксперимент и измерялся результат по некоторому параметру . Анализ был сделан с использованием методологии частых исследований. В результатах указан доверительный интервал...

13
Существует ли сопряженный априор для распределения Лапласа?

Существует ли сопряженный априор для распределения Лапласа ? Если нет, то есть ли известное выражение в замкнутой форме, аппроксимирующее апостериорный для параметров распределения Лапласа? Я довольно много гуглил, но безуспешно, поэтому мое текущее предположение - «нет» в ответах на вопросы выше...

13
Вы наблюдаете k голов из n бросков. Честная ли монета?

Мне задали этот вопрос с в интервью. Есть ли «правильный» ответ?(n,k)=(400,220)(n,k)=(400,220)(n, k) = (400, 220) Предположим, что броски одинаковы, а вероятность голов составляет p=0.5p=0.5p=0.5 . Распределение числа голов в 400 бросках должно быть близко к нормальному (200, 10 ^ 2), так что 220...

12
Когда мне следует беспокоиться о парадоксе Джеффриса-Линдли в выборе байесовской модели?

Я рассматриваю большое (но конечное) пространство моделей различной сложности, которые я исследую с помощью RJMCMC . Приоритет вектора параметров для каждой модели достаточно информативен. В каких случаях (если таковые имеются) я должен беспокоиться о парадоксе Джеффриса-Линдли в пользу более...

12
Какой смысл в неинформативных априорах?

Почему даже есть неинформативные приоры? Они не предоставляют информацию о . Так зачем их использовать? Почему бы не использовать только информационные приоры? Например, предположим, что θ ∈ [ 0 , 1 ] . Тогда является ли θ ∼ U ( 0 , 1 ) неинформативным априорным для θ ?θθ\thetaθ∈[0,1]θ∈[0,1] \theta...

12
Какие параметры есть у Wishart-Wishart posterior?

При выводе матрицы точности ΛΛ\boldsymbol{\Lambda} нормального распределения, используемой для создания NNN D-мерных векторов, x1,..,xNx1,..,xN\mathbf{x_1},..,\mathbf{x_N} xi∼N(μ,Λ−1)xi∼N(μ,Λ−1)\begin{align} \mathbf{x_i} &\sim \mathcal{N}(\boldsymbol{\mu, \Lambda^{-1}}) \\ \end{align} мы обычно...

12
Джефрис Приор для нормального распределения с неизвестным средним и дисперсией

Я читаю о предыдущих распределениях и вычислял Джеффриса для выборки нормально распределенных случайных величин с неизвестным средним и неизвестной дисперсией. Согласно моим расчетам, для Джеффриса справедливо следующее: Здесь - информационная матрица Фишера.яp ( μ , σ2) = dэ т ( я)-----√= де т ( 1...

12
Оправдание для сопряженного приора?

Помимо удобства использования, есть ли какое-либо эпистемическое обоснование (математическое, философское, эвристическое и т. Д.) Для использования сопряженных априорных значений? Или в большинстве случаев это достаточно хорошее приближение и делает вещи намного...

11
Нег Бином и Приор Джеффриса

Я пытаюсь получить априор Джеффриса для отрицательного биномиального распределения. Я не вижу, где я иду не так, поэтому, если кто-то может помочь указать на это, это будет оценено. Итак, ситуация такова: я должен сравнить предыдущие распределения, полученные с использованием бинома и...

11
Понимание бета-конъюгата перед байесовским выводом о частоте

Ниже приведен отрывок из «Болстадского введения в байесовскую статистику» . Для всех вас, экспертов, это может быть тривиально, но я не понимаю, как автор приходит к выводу, что нам не нужно делать какую-либо интеграцию для вычисления апостериорной вероятности для некоторого значения . Я понимаю...

11
Байесовские неинформативные априоры против частых нулевых гипотез: каковы отношения?

Я наткнулся на это изображение в блоге здесь . Я был разочарован тем, что чтение заявления не выявило для меня того же выражения лица, что и для этого парня. Итак, что подразумевается под утверждением о том, что нулевая гипотеза состоит в том, как часто участники выражают неинформативный априор?...

11
Почему LKJcorr является хорошим приоритетом для корреляционной матрицы?

Я читаю главу 13 «Приключения в ковариации» в ( превосходной ) книге Ричарда Мак-Элирея « Статистическое переосмысление », где он представляет следующую иерархическую модель: ( Rэто корреляционная матрица) Автор объясняет, что LKJcorrэто слабоинформативный априор, который работает как...

11
Почему существуют рекомендации против использования Jeffreys или энтропийных априоров для сэмплеров MCMC?

На своей вики-странице разработчики Стэна заявляют: Некоторые принципы нам не нравятся: инвариантность, Джеффрис, энтропия Вместо этого я вижу много нормальных рекомендаций по распространению. До сих пор я использовал байесовские методы, которые не основывались на выборке, и был отчасти рад, что...

11
Используют ли статистики предыдущие работы Джеффри в реальной прикладной работе?

Когда я узнал о предшествующей работе Джеффриса в моем классе по статистическому выводу для выпускников, мои профессора сделали его звучащим так, как будто это было интересно в основном по историческим причинам, а не потому, что кто-либо когда-либо использовал его. Затем, когда я взяла байесовский...