Вопросы с тегом «bayes»

17
Какие алгоритмы нуждаются в масштабировании функций, кроме SVM?

Я работаю со многими алгоритмами: RandomForest, DecisionTrees, NaiveBayes, SVM (kernel = linear и rbf), KNN, LDA и XGBoost. Все они были довольно быстрыми, кроме SVM. Именно тогда я узнал, что для ускорения работы требуется масштабирование функций. Тогда я начал задаваться вопросом, должен ли я...

17
Когда Наивный Байес работает лучше, чем SVM?

В небольшой проблеме классификации текста, которую я рассматривал, Наивный Байес демонстрирует производительность, аналогичную или превышающую SVM, и я был очень смущен. Мне было интересно, какие факторы определяют триумф одного алгоритма над другим. Существуют ли ситуации, когда нет смысла...

15
Что вы делали, чтобы помнить правило Байеса?

Я думаю, что хороший способ запомнить формулу - это думать о формуле так: Вероятность того, что какое-либо событие A имеет конкретный результат, учитывая результат независимого события B = вероятность того, что оба результата произошли одновременно / что бы мы ни говорили, вероятность ожидаемого...

15
Какова «мощность» модели машинного обучения?

Я изучаю этот урок по вариационным автоэнкодерам Карла Доерша . На второй странице говорится: Одним из наиболее популярных таких фреймворков является Variational Autoencoder [1, 3], предмет данного руководства. Предположения этой модели являются слабыми, и обучение происходит быстро с помощью...

15
Увеличение числа функций приводит к снижению точности, но увеличению предварительного / повторного вызова

Я новичок в машинном обучении. В настоящее время я использую классификатор Наивного Байеса (NB), чтобы классифицировать небольшие тексты в 3 классах как положительные, отрицательные или нейтральные, используя NLTK и python. Проведя несколько тестов с набором данных, состоящим из 300 000 экземпляров...

15
Почему никто не использует байесовский полиномиальный наивный байесовский классификатор?

Таким образом, в (неконтролируемом) текстовом моделировании скрытое распределение Дирихле (LDA) является байесовской версией вероятностного скрытого семантического анализа (PLSA). По сути, LDA = PLSA + Dirichlet перед его параметрами. Насколько я понимаю, LDA теперь является эталонным алгоритмом и...

15
В сглаживании Кнезера-Нея, как обрабатываются невидимые слова?

Из того, что я видел, формула сглаживания Кнезера-Ней (второго порядка) так или иначе задается как P2KN(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn)PKN2(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn) \begin{align} P^2_{KN}(w_n|w_{n-1}) &= \frac{\max \left\{...

14
Как Наивный Байес работает с непрерывными переменными?

Насколько я понимаю (очень базовое), Наивный Байес оценивает вероятности, основываясь на частотах классов каждой функции в обучающих данных. Но как рассчитать частоту непрерывных переменных? И когда вы делаете прогноз, как он классифицирует новое наблюдение, которое может не иметь одинаковых...

14
Пример того, как трюк log-sum-exp работает в наивном байесовском

Я читал о трюке log-sum-exp во многих местах (например, здесь и здесь ), но никогда не видел пример того, как он применяется конкретно к наивному байесовскому классификатору (например, с дискретными функциями и двумя классами) Как именно можно избежать проблемы числового снижения при использовании...

14
Как сделать одноклассную классификацию текста?

Мне приходится иметь дело с проблемой классификации текста. Сканер сканирует веб-страницы определенного домена, и для каждой веб-страницы я хочу выяснить, принадлежит ли он только одному конкретному классу или нет. То есть, если я назову этот класс " Позитивным" , каждая просканированная...

13
Почему наивный байесовский классификатор оптимален для проигрыша 0-1?

Наивный байесовский классификатор - это классификатор, который назначает элементы xxx классу CCC на основе максимизации апостериорного P(C|x)P(C|x)P(C|x) для членства в классе и предполагает, что характеристики элементов независимы. Потеря 0-1 - это потеря, которая присваивает любой ошибочной...

13
Гауссовские процессы: как использовать GPML для многомерного вывода

Есть ли способ выполнить Гауссовскую регрессию процесса на многомерном выходе (возможно, коррелированном) с использованием GPML ? В демонстрационном скрипте я мог найти только 1D пример. Аналогичный вопрос о том , что CV тали случай многомерного ввода. Я просмотрел их книгу, чтобы узнать, смогу ли...

13
Теорема Байеса с кратными условиями

Я не понимаю, как это уравнение было получено. P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M_{1}\cap M_{2}) \leq \frac{P(I)}{P(I')}\cdot \frac{P(M_{1}|I)P(M_{2}|I)}{P(M_{1}|I')P(M_{2}|I')} Это уравнение было взято из статьи «Испытание по...

12
Может ли прогнозируемая вероятность логистической регрессии быть интерпретирована как уверенность в классификации

Можем ли мы интерпретировать апостериорную вероятность, полученную из классификатора, который выводит прогнозируемое значение класса и вероятность (например, логистическая регрессия или наивный байесовский критерий), как некоторый вид доверительной оценки, которая присваивается этому...

12
иерархические байесовские модели против эмпирических байесовских

Считаете ли вы, что HBM против EB - это две альтернативы, в которых гиперпараметры «в игре» отбираются / оцениваются / и т.д.? Существует очевидная связь между этими двумя. Считаете ли вы HBM более "полностью байесовским", чем EB? Есть ли место, где я могу увидеть разницу между тем, чтобы быть...

12
Линейный дискриминантный анализ и правило Байеса: классификация

Какова связь между линейным дискриминантным анализом и правилом Байеса? Я понимаю, что LDA используется в классификации, пытаясь минимизировать соотношение внутри групповой дисперсии и между групповой дисперсией, но я не знаю, как в ней используется правило...

12
Есть ли связь между эмпирическим байесовским эффектом и случайными эффектами?

Недавно мне довелось прочитать об эмпирическом байесовском опыте (Casella, 1985, Введение в эмпирический анализ байесовских данных), и это выглядело как модель случайных эффектов; в том, что оба имеют оценки, уменьшенные до глобального среднего. Но я не прочитал это полностью ... Есть ли у...

12
Почему Томас Байес нашел теорему Байеса такой сложной?

Это больше вопрос истории науки, но я надеюсь, что он здесь по теме. Я читал, что Томасу Байесу удалось обнаружить теорему Байеса только для частного случая равномерного априора, и даже тогда он, очевидно, боролся с ней. Учитывая, насколько тривиальна общая теорема Байеса в современной трактовке,...

12
Наивные байесовские характеристики вероятности: я должен дважды считать слова?

Я создаю прототип своей собственной модели Naive Bayes bag o 'words, и у меня возник вопрос о вычислении вероятностей характеристик. Допустим, у меня есть два класса, я просто буду использовать спам, а не спам, поскольку это то, что все используют. И давайте возьмем слово «виагра» в качестве...

12
Akinator.com и Наивный байесовский классификатор

Контекст: я программист с некоторым (наполовину забытым) опытом в области статистики из университетских курсов. Недавно я наткнулся на http://akinator.com и провел некоторое время, пытаясь заставить его потерпеть неудачу. А кто не был? :) Я решил выяснить, как это может работать. После поиска в...