Вопросы с тегом «bayesian»

9
Как формализовать предыдущее распределение вероятностей? Есть ли практические правила или советы, которые следует использовать?

Хотя мне нравится думать, что я хорошо понимаю концепцию предварительной информации в байесовском статистическом анализе и принятии решений, у меня часто возникают проблемы с нахождением головы вокруг ее применения. Я имею в виду пару ситуаций, которые иллюстрируют мою борьбу, и я чувствую, что они...

9
Помощь в максимизации ожидания от бумаги: как включить предварительное распространение?

Вопрос основан на статье под названием «Восстановление изображений в диффузной оптической томографии с использованием связанной излучательной транспортно-диффузионной модели». Ссылка на скачивание Авторы применяют EM-алгоритм с разреженности неизвестного вектора \ mu для оценки пикселей...

9
Что значит интегрировать по случайной мере?

В настоящее время я смотрю на статью о модели случайных эффектов процесса Дирихле, и спецификация модели выглядит следующим образом: где - параметр масштаба и является базовой мерой. Позже в статье предлагается интегрировать функцию по базовой мере например Базовая мера в процессе Дирихле - это cdf...

9
Когда (и почему) байесовцы отвергают действительные байесовские методы? [закрыто]

Закрыто . Этот вопрос нуждается в деталях или ясности . В настоящее время он не принимает ответы. Хотите улучшить этот вопрос? Добавьте детали и проясните проблему, отредактировав этот пост . Закрыто 3 года назад . Из того, что я прочитал, и из ответов на другие вопросы, которые я здесь задавал,...

9
Байесовское онлайн-обнаружение точек изменения (предельное прогнозное распределение)

Я читаю байесовскую онлайн-статью об обнаружении точек смены Адамса и Маккея ( ссылка ). Авторы начинают с написания предельного распределительного предсказания: гдеP(xt+1|x1:t)=∑rtP(xt+1|rt,x(r)t)P(rt|x1:t)(1)P(xt+1|x1:t)=∑rtP(xt+1|rt,xt(r))P(rt|x1:t)(1) P(x_{t+1} | \textbf{x}_{1:t}) = \sum_{r_t}...

9
Пример того, как байесовская статистика может оценивать параметры, которые очень сложно оценить с помощью частых методов

Байесовские статистики утверждают, что «Байесовская статистика может оценивать параметры, которые очень сложно оценить с помощью частых методов». Означает ли следующая цитата, взятая из этой документации SAS, то же самое? Он обеспечивает выводы, которые зависят от данных и являются точными, не...

9
Применение стохастического вариационного вывода к байесовской смеси Гаусса

Я пытаюсь реализовать модель гауссовой смеси со стохастическим вариационным выводом, следуя этой статье . Это программа гауссовой смеси. Согласно статье, полный алгоритм стохастического вариационного вывода: И я все еще очень запутался в методе масштабирования до GMM. Во-первых, я думал, что...

9
Сомнения в выводе уравнений регрессии гауссовского процесса в статье

Я читаю этот препринт и испытываю трудности с выводом уравнений для регрессии гауссовского процесса. Они используют настройки и обозначения Расмуссена и Уильямса . Таким образом, аддитивный, с нулевым средним, стационарный и нормально распределенный шум с дисперсией...

9
Какая модель глубокого обучения может классифицировать категории, которые не являются взаимоисключающими

Примеры: у меня есть предложение в должностной инструкции: «Старший инженер Java в Великобритании». Я хочу использовать модель глубокого обучения, чтобы предсказать ее как 2 категории: English и IT jobs. Если я использую традиционную классификационную модель, она может предсказать только 1 метку с...

9
Использование p-значения для вычисления вероятности того, что гипотеза верна; что еще нужно?

Вопрос: Одно из распространенных заблуждений относительно р-значений заключается в том, что они представляют вероятность того, что нулевая гипотеза верна. Я знаю, что это не правильно, и я знаю, что p-значения представляют только вероятность найти образец столь же экстремальный, как этот, учитывая,...

9
Выбор байесовской модели и вероятный интервал

У меня есть набор данных с тремя переменными, где все переменные являются количественными. Давайте назовем это , и . Я подгоняю регрессионную модель в байесовской перспективе через MCMC сх 1 х 2yyyx1x1x_1x2x2x_2rjags Я сделал предварительный анализ, и график рассеяния подсказывает, что следует...

9
Почему байесовский вероятный интервал в этой полиномиальной регрессии смещен, тогда как доверительный интервал правильный?

Рассмотрим график ниже, на котором я смоделировал данные следующим образом. Мы смотрим на двоичный результат для которого истинная вероятность быть 1 указана черной линией. Функциональная связь между ковариатой и является полиномом 3-го порядка с логистической связью (поэтому она является...

9
Является ли свойство инвариантности оценки ML бессмысленным с точки зрения Байеса?

Каселла и Бергер утверждают свойство инвариантности оценки ML следующим образом: Тем не менее, мне кажется, что они определяют «вероятность» совершенно случайным и бессмысленным образом:ηη\eta Если я применяю основные правила теории вероятностей к простому случаю, когда , я получаю следующее: L ( η...

9
Правда ли, что байесовцам не нужны тестовые наборы?

Недавно я смотрел этот доклад Эрика Дж. Ма и проверил его запись в блоге , где он цитирует Рэдфорда Нила, что байесовские модели не подходят больше (но они могут соответствовать ), и при их использовании нам не нужны тестовые наборы для их проверки (для Мне кажется, что цитаты говорят скорее об...

9
Как байесовская достаточность связана с достаточной частотой?

Простейшее определение достаточной статистики в частой перспективе дано здесь, в Википедии . Однако недавно я наткнулся на книгу Байеса с определением . В ссылке указано, что оба они эквивалентны, но я не понимаю, как это сделать. Также на той же странице в разделе «Другие типы достаточности»...

9
Требует ли оценка Байеса, что истинный параметр является возможным изменением предыдущего?

Это может быть немного философским вопросом, но здесь мы идем: В теории принятия решений риск оценки Байеса для определен относительно предыдущего распределения на .thetas∈thetasлthetasθ^(x)θ^(x)\hat\theta(x)θ∈Θθ∈Θ\theta\in\Thetaππ\piΘΘ\Theta Теперь, с одной стороны, чтобы истинное сгенерировало...

9
Почему байесовский апостериор концентрируется вокруг минимизатора расхождения KL?

Рассмотрим Байеса задней . Асимптотически его максимум возникает при оценке MLE , которая просто максимизирует вероятность .θ∣Xθ∣X\theta\mid Xθ^θ^\hat \thetaargminθfθ(X)argminθfθ(X)\operatorname{argmin}_\theta\, f_\theta(X) Все эти концепции - байесовские априоры, максимизирующие вероятность -...

9
Оценка неопределенности в задачах многомерного вывода без выборки?

Я работаю над проблемой многомерного вывода (около 2000 параметров модели), для которой мы можем надежно выполнить оценку MAP, найдя глобальный максимум логарифмического аппроксимации, используя комбинацию градиентной оптимизации и генетического алгоритма. Я очень хотел бы иметь возможность сделать...