Вопросы с тегом «log-likelihood»

66
Зачем оптимизировать максимальную логарифмическую вероятность вместо вероятности

В большинстве задач машинного обучения, где вы можете сформулировать некоторую вероятность которая должна быть максимизирована, мы фактически оптимизировали бы логарифмическую вероятность вместо вероятности для некоторых параметров . Например, в обучении с максимальным правдоподобием, это, как...

46
Как рассчитать псевдо- из логистической регрессии R?

Отчет Кристофера Мэннинга по логистической регрессии в R показывает логистическую регрессию в R следующим образом: ced.logr <- glm(ced.del ~ cat + follows + factor(class), family=binomial) Некоторый вывод: > summary(ced.logr) Call: glm(formula = ced.del ~ cat + follows + factor(class), family...

18
Теоретическая мотивация использования логарифмического правдоподобия и правдоподобия

Я пытаюсь понять на более глубоком уровне повсеместность логарифмической вероятности (и, возможно, в более общем смысле логарифмической вероятности) в статистике и теории вероятностей. Логарифмические вероятности проявляются повсеместно: мы обычно работаем с логарифмической вероятностью для анализа...

14
В GLM логарифмическая вероятность насыщенной модели всегда равна нулю?

Как часть вывода обобщенной линейной модели, нулевое и остаточное отклонение используются для оценки модели. Я часто вижу формулы для этих величин, выраженные в виде логарифмической вероятности насыщенной модели, например: /stats//a/113022/22199 , Логистическая регрессия: как получить насыщенную...

11
R / mgcv: Почему тензорные продукты te () и ti () производят разные поверхности?

mgcvПакет Rимеет две функции для установки взаимодействия Тензор продукта: te()и ti(). Я понимаю основное разделение труда между ними (подгонка нелинейного взаимодействия против разложения этого взаимодействия на основные эффекты и взаимодействие). Чего я не понимаю, так это почему te(x1, x2)и...