Недавно я использовал масштабирование SVM-выходов Платта для оценки вероятностей событий по умолчанию. Похоже, более прямыми альтернативами являются «Логистическая регрессия ядра» (KLR) и связанная с ними «Машина вектора импорта».
Кто-нибудь может сказать, какой метод ядра, дающий вероятностные результаты, является в настоящее время современным? Существует ли R-реализация KLR?
Спасибо большое за помощь!
logistic
svm
kernel-trick
RichardN
источник
источник
Ответы:
Гауссовская классификация процессов (использующая распространение ожиданий), вероятно, является самой современной в машинном обучении. Есть отличная книга Расмуссена и Уильямса (которую можно скачать бесплатно), на сайте которой очень хорошая реализация MATLAB. Больше программного обеспечения, книг, бумаг и т . Д. Здесь . Однако на практике KLR, вероятно, будет работать так же хорошо для большинства проблем, основная трудность заключается в выборе параметров ядра и регуляризации, что, вероятно, лучше всего сделать с помощью перекрестной проверки, хотя перекрестную проверку с использованием однократной проверки можно аппроксимировать очень эффективно, см. Cawley and Talbot (2008).
источник
Полагаю, вы знаете, что ядро для логистической регрессии является непараметрическим, поэтому прежде всего у вас есть это ограничение.
Что касается пакета R, который я знаю и который работает довольно хорошо, это np : Непараметрические методы сглаживания ядра для смешанных типов данных.
Этот пакет предоставляет множество непараметрических (и полупараметрических) методов ядра, которые беспрепятственно обрабатывают сочетание типов данных непрерывного, неупорядоченного и упорядоченного фактора.
Что касается современного уровня Kernell, я могу порекомендовать поэкспериментировать с теми, что описаны в этом документе с 2009 года. Внимательно прочитайте его, чтобы выбрать тот, который является лучшим и более актуальным для вас.
источник