Вопросы с тегом «bayes»

Комбинирование вероятностей с теоремой Байеса, особенно для условного вывода.

92
Кто такие байесовцы?

Когда кто-то начинает интересоваться статистикой, дихотомия «Частый» и «Байесовский» вскоре становится обычным явлением (а кто вообще не читал « Сигнал и шум» Нейта Сильвера ?). В беседах и вводных курсах точка зрения является чрезвычайно частой ( MLE , значения), но есть небольшая часть времени,...

78
Пример: регрессия LASSO с использованием glmnet для двоичного результата

Я начинаю баловаться с использованием glmnetс LASSO регрессией , где мой результат представляет интерес дихотомический. Я создал небольшой фрейм данных ниже: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, 0.91,...

47
Понимание Наивного Байеса

От StatSoft, Inc. (2013), Электронный учебник статистики , «Наивный байесовский классификатор» : Чтобы продемонстрировать концепцию наивной байесовской классификации, рассмотрим пример, показанный на иллюстрации выше. Как указано, объекты могут быть классифицированы как ЗЕЛЕНЫЙ или КРАСНЫЙ. Моя...

38
Почему наивные байесовские классификаторы так хорошо работают?

Наивные байесовские классификаторы являются популярным выбором для задач классификации. Есть много причин для этого, в том числе: «Zeitgeist» - широко распространенная осведомленность после успеха спам-фильтров около десяти лет назад Легко написать Модель классификатора быстро построить Модель...

37
Вариационный вывод по сравнению с MCMC: когда выбрать один из других?

Я думаю, что я получил общее представление о VI и MCMC, включая различные разновидности MCMC, такие как выборка Гиббса, Metropolis Hastings и т. Д. Эта статья представляет собой прекрасное изложение обоих методов. У меня есть следующие вопросы: Если я хочу сделать байесовский вывод, почему я выбрал...

31
Как Наивный Байес является линейным классификатором?

Я видел другую ветку здесь, но я не думаю, что ответ удовлетворил фактический вопрос. Я постоянно читал, что Наивный Байес - это линейный классификатор (например, здесь ) (такой, что он рисует линейную границу решения), использующий демонстрацию логических шансов. Однако я смоделировал два...

29
Разница между наивным байесовским и многочленным наивным байесовским

Я имел дело с наивным байесовским классификатором раньше. В последнее время я читаю о многокомном наивном байесовском . Также Задняя Вероятность = (Приоритет * Вероятность) / (Доказательства) . Единственное главное отличие (при программировании этих классификаторов), которое я обнаружил между...

29
R: Случайный лес, выбрасывающий NaN / Inf в ошибке «вызова сторонней функции», несмотря на отсутствие NaN в наборе данных [закрыто]

Закрыто. Этот вопрос не по теме . В настоящее время не принимает ответы. Хотите улучшить этот вопрос? Обновите вопрос, чтобы он соответствовал теме перекрестной проверки. Закрыто 2 года назад . Я использую каретку, чтобы запустить перекрестный проверенный случайный лес по набору данных. Переменная...

28
В «Наивном байесовском», зачем беспокоиться о сглаживании Лапласа, когда в тестовом наборе есть неизвестные слова?

Я читал сегодня наивную байесовскую классификацию. Я прочитал под заголовком Оценка параметров с добавлением сглаживания 1 : Пусть ccc ссылается на класс (например, Positive или Negative), а указывает на токен или слово.www Оценка максимального правдоподобия для...

26
Как оценить потери KLD и потери реконструкции в вариационном авто-кодировщике

почти во всех примерах кода, которые я видел в VAE, функции потерь определяются следующим образом (это код с тензорным потоком, но я видел похожее для theano, torch и т. д. Это также для коннета, но это также не слишком актуально) , только влияет на оси, суммы принимаются): # latent space loss. KL...

26
Связь между вариационным байесовским и ЭМ

Я где-то читал, что вариационный метод Байеса является обобщением алгоритма EM. Действительно, итерационные части алгоритмов очень похожи. Чтобы проверить, является ли алгоритм EM специальной версией Вариационного Байеса, я попробовал следующее: YYY - данные, - коллекция скрытых переменных, а -...

24
Что такое вариационные автоэнкодеры и для каких задач обучения они используются?

Согласно этому и этому ответу, автоэнкодеры кажутся техникой, которая использует нейронные сети для уменьшения размеров. Я хотел бы дополнительно знать, что такое вариационный автоэнкодер (его основные отличия / преимущества по сравнению с «традиционными» автоэнкодерами), а также каковы основные...

24
Насколько действителен эмпирический байесовский метод?

Поэтому я только что закончил читать замечательную книгу « Введение в эмпирический байесовский анализ» . Я думал, что книга была великолепной, но построение априорных данных на основе данных было неверным. Я был обучен тому, что вы разрабатываете план анализа, затем собираете данные и проверяете...

22
Есть ли байесовский подход к оценке плотности?

Я заинтересован , чтобы оценить плотность непрерывной случайной величины . Один из способов сделать это, который я изучил, это использование оценки плотности ядра.ИксXX Но теперь меня интересует байесовский подход, который заключается в следующем. Первоначально я считаю , что следует распределение...

20
Почему нормализующий фактор требуется в теореме Байеса?

Теорема Байеса имеет вид P(model|data)=P(model)×P(data|model)P(data)P(model|data)=P(model)×P(data|model)P(data) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} Это все хорошо. Но я где-то читал: По сути, P (данные) - это не что...

20
Машинное обучение, чтобы предсказать вероятность класса

Я ищу классификаторы, которые выводят вероятности того, что примеры принадлежат одному из двух классов. Я знаю о логистической регрессии и наивных байесовских, но можете ли вы рассказать мне о других, которые работают аналогичным образом? То есть классификаторы, которые предсказывают не классы, к...

20
Перекрестная проверка и эмпирический байесовский метод оценки гиперпараметров

Учитывая иерархическую модель , я хочу двухэтапный процесс, чтобы соответствовать модели. Сначала исправьте несколько гиперпараметров , а затем сделайте байесовский вывод по остальным параметрам . Для фиксации гиперпараметров я рассматриваю два варианта.θ ϕp ( x | ϕ , θ...

19
Когда я должен использовать вариационный авто-кодер, а не авто-кодер?

Я понимаю основную структуру вариационного автоэнкодера и нормального (детерминированного) автоэнкодера и математическую схему, стоящую за ними, но когда и почему я предпочел бы один тип автоэнкодера другому? Все, о чем я могу думать, - это предварительное распределение скрытых переменных...

19
Как применить теорему Байеса к поиску потерянного в море рыбака

В статье «Постоянно обновляемые шансы» упоминается история рыбака из Лонг-Айленда, который буквально обязан своей жизнью Байесовской статистике. Вот короткая версия: Посреди ночи на лодке два рыбака. Пока один спит, другой падает в океан. Лодка продолжает троллить на автопилоте всю ночь, пока...