Вопросы с тегом «bayesian»

12
Вывод байесовской сети с использованием pymc (путаница для начинающих)

В настоящее время я прохожу курс PGM Дафни Коллер на Coursera. При этом мы обычно моделируем байесовскую сеть как причинно-следственный ориентированный график переменных, которые являются частью наблюдаемых данных. Но в учебниках и примерах PyMC я обычно вижу, что он не совсем смоделирован так же,...

12
Критерии выбора «лучшей» модели в скрытой марковской модели

У меня есть набор данных временного ряда, к которому я пытаюсь подогнать скрытую марковскую модель (HMM), чтобы оценить количество скрытых состояний в данных. Мой псевдокод для этого следующий: for( i in 2 : max_number_of_states ){ ... calculate HMM with i states ... optimal_number_of_states =...

12
Пример строгого неравенства фон Неймана

Пусть обозначает байесовский риск оценки относительно априора , пусть обозначает множество всех априоров в пространстве параметров , а обозначает множество все (возможно, рандомизированные) правила принятия решений.δ π Π Θ Δr(π,δ)r(π,δ)r(\pi, \delta)δδ\deltaππ\piΠΠ\PiΘΘ\ThetaΔΔ\Delta Статистическая...

12
Простой пример, демонстрирующий преимущества Байесовского модельного усреднения (BMA)

Я включил подход Байесовского модельного усреднения (BMA) в свои исследования и скоро представлю мои работы коллегам. Однако BMA на самом деле не так хорошо известен в моей области, поэтому, представив им всю теорию и прежде чем применить ее к моей проблеме, я хочу привести простой, но поучительный...

12
Являются ли байесовские методы последовательными?

То есть, для проведения последовательного анализа (вы не знаете заранее, сколько именно данных вы будете собирать) с помощью часто используемых методов требуется особая осторожность; Вы не можете просто собирать данные, пока значение p не станет достаточно маленьким или доверительный интервал не...

12
Сравнение оценки максимального правдоподобия (MLE) и теоремы Байеса

В теореме Байеса , а из книги, которую я читаю, называется вероятность , но я предполагаю , что это всего лишь условная вероятность от дается , не так ли? p(x|y)p(y|x)=p(x|y)p(y)p(x)п(Y|Икс)знак равноп(Икс|Y)п(Y)п(Икс)p(y|x) = \frac{p(x|y)p(y)}{p(x)}p(x|y)п(Икс|Y)p(x|y)уxИксxyYy Оценка...

12
Бета-раздача при подбрасывании монеты

Байесовская книга Крушке гласит, что использование бета-дистрибутива для подбрасывания монеты Например, если у нас нет никаких предварительных знаний, кроме знания о том, что у монеты есть сторона головы и сторона хвоста, это равносильно тому, что ранее наблюдались одна голова и один хвост, что...

12
Соотношение вероятностей и соотношение PDF-файлов

Я использую Байес для решения проблемы кластеризации. После выполнения некоторых вычислений у меня возникает необходимость получить соотношение двух вероятностей: п( А ) / П( Б )P(A)/P(B)P(A)/P(B) чтобы иметь возможность получить . Эти вероятности получены путем интегрирования двух разных 2D...

12
Почему Томас Байес нашел теорему Байеса такой сложной?

Это больше вопрос истории науки, но я надеюсь, что он здесь по теме. Я читал, что Томасу Байесу удалось обнаружить теорему Байеса только для частного случая равномерного априора, и даже тогда он, очевидно, боролся с ней. Учитывая, насколько тривиальна общая теорема Байеса в современной трактовке,...

12
Байесовский против MLE, проблема переоснащения

В книге Бишопа по PRML он говорит, что переоснащение - это проблема с оценкой максимального правдоподобия (MLE), и байесовский может ее избежать. Но я думаю, что переоснащение - это проблема скорее выбора модели, а не метода, используемого для оценки параметров. То есть, предположим, что у меня...

12
Точный критерий Фишера и гипергеометрическое распределение

Я хотел лучше понять точный критерий Фишера, поэтому я разработал следующий пример игрушки, где f и m соответствуют мужской и женской части, а n и y соответствуют «потреблению соды», например: > soda_gender f m n 0 5 y 5 0 Очевидно, это резкое упрощение, но я не хотел, чтобы контекст мешал....

12
Интеллектуальная оценка и определение победителя

Существует подкаст NPR под названием Intelligence Squared. Каждый эпизод - это прямая трансляция дебатов по некоторым спорным заявлениям, таким как «Вторая поправка больше не актуальна» или «Позитивные действия в студенческих городках приносят больше вреда, чем пользы». Четыре представителя спорят...

12
Почему это распределение равномерно?

Мы изучаем байесовское статистическое тестирование и сталкиваемся со странным (по крайней мере, мне) явлением. Рассмотрим следующий случай: мы заинтересованы в измерении того, какая популяция, A или B, имеет более высокий коэффициент конверсии. Для проверки мы устанавливаем , то есть вероятность...

12
Как выполнить вменение значений в очень большом количестве точек данных?

У меня очень большой набор данных и около 5% случайных значений отсутствуют. Эти переменные связаны друг с другом. В следующем примере набор данных R - просто игрушечный пример с фиктивными коррелированными данными. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000,...

12
Как интерпретировать автокорреляционный график в MCMC

Я знакомлюсь с байесовской статистикой, читая книгу Джона К. Крушке « Анализ байесовских данных» , также известную как «книга щенков». В главе 9 иерархические модели представлены на этом простом примере: и наблюдения Бернулли составляют 3 монеты, каждая из которых состоит из 10 сальто. Один...

12
Какие параметры есть у Wishart-Wishart posterior?

При выводе матрицы точности ΛΛ\boldsymbol{\Lambda} нормального распределения, используемой для создания NNN D-мерных векторов, x1,..,xNx1,..,xN\mathbf{x_1},..,\mathbf{x_N} xi∼N(μ,Λ−1)xi∼N(μ,Λ−1)\begin{align} \mathbf{x_i} &\sim \mathcal{N}(\boldsymbol{\mu, \Lambda^{-1}}) \\ \end{align} мы обычно...

12
Каковы преимущества использования байесовской нейронной сети

Недавно я прочитал несколько статей о байесовской нейронной сети (BNN) [Neal, 1992] , [Neal, 2012] , которая дает вероятностное соотношение между входом и выходом в нейронной сети. Обучение такой нейронной сети происходит через MCMC, который отличается от традиционного алгоритма обратного...

12
Когда мне следует беспокоиться о парадоксе Джеффриса-Линдли в выборе байесовской модели?

Я рассматриваю большое (но конечное) пространство моделей различной сложности, которые я исследую с помощью RJMCMC . Приоритет вектора параметров для каждой модели достаточно информативен. В каких случаях (если таковые имеются) я должен беспокоиться о парадоксе Джеффриса-Линдли в пользу более...

12
Оправдание для сопряженного приора?

Помимо удобства использования, есть ли какое-либо эпистемическое обоснование (математическое, философское, эвристическое и т. Д.) Для использования сопряженных априорных значений? Или в большинстве случаев это достаточно хорошее приближение и делает вещи намного...