Вопросы с тегом «laplace-smoothing»

28
В «Наивном байесовском», зачем беспокоиться о сглаживании Лапласа, когда в тестовом наборе есть неизвестные слова?

Я читал сегодня наивную байесовскую классификацию. Я прочитал под заголовком Оценка параметров с добавлением сглаживания 1 : Пусть ccc ссылается на класс (например, Positive или Negative), а указывает на токен или слово.www Оценка максимального правдоподобия для...

11
Сглаживание лапласа и дирихле приора

В статье Википедии о сглаживании Лапласа (или аддитивном сглаживании) сказано, что с байесовской точки зрения это соответствует ожидаемому значению апостериорного распределения с использованием симметричного распределения Дирихле с параметром в качестве предшествующего значения.αα\alpha Я озадачен...

11
Терминология для байесовского апостериорного среднего вероятности с равномерным априором

Если Uniform и Bin , то апостериорное среднее для задается как .р ∼п~p \sim( 0 , 1 )(0,1)(0,1)Икс~Икс~X \sim( н , р )(N,п)(n, p)ппpИкс+ 1n + 2Икс+1N+2\frac{X+1}{n+2} Есть ли общее название для этой оценки? Я обнаружил, что это решает множество проблем людей, и я хотел бы иметь возможность указывать...

9
Какая модель глубокого обучения может классифицировать категории, которые не являются взаимоисключающими

Примеры: у меня есть предложение в должностной инструкции: «Старший инженер Java в Великобритании». Я хочу использовать модель глубокого обучения, чтобы предсказать ее как 2 категории: English и IT jobs. Если я использую традиционную классификационную модель, она может предсказать только 1 метку с...