Как всем известно, SVM может использовать метод ядра для проецирования точек данных в верхние пространства, чтобы точки могли быть разделены линейным пространством. Но мы также можем использовать логистическую регрессию, чтобы выбрать эту границу в пространстве ядра, так в чем же преимущества SVM? Поскольку SVM использует разреженную модель, в которой вклады при прогнозировании вносят только эти опорные векторы, делает ли это SVM быстрее при прогнозировании?
32
Ответы:
KLR и SVM
Глядя на вышесказанное, вы почти чувствуете, что вам следует использовать логистическую регрессию ядра. Тем не менее, есть определенные преимущества, которыми пользуются SVM
источник
Вот мой взгляд на проблему:
SVM - очень элегантный способ классификации. Есть какая-то хорошая теория, какая-то прекрасная математика, они хорошо обобщают и тоже не слишком медленны. Попробуйте использовать их для регрессии, и это становится грязным.
Гауссовский процесс регрессии имеет много схожей математики ядра, и он отлично работает для регрессии. Опять же, очень элегантно и не слишком медленно. Попробуйте использовать их для классификации, и это начинает казаться довольно глупым.
Вот глава из книги ГП по регрессии.
Вот глава о классификации, для сравнения. Обратите внимание, что вы получите сложные аппроксимации или итеративный метод.
Тем не менее, есть одна приятная особенность использования ВО для классификации: она дает вам прогнозирующее распределение, а не простую классификацию «да / нет».
источник
пожалуйста, посетите http://www.stanford.edu/~hastie/Papers/svmtalk.pdf
Некоторые выводы: Классификационные показатели очень похожи. Имеет предельные оптимальные маржинальные свойства. Предоставляет оценки класса вероятностей. Часто они более полезны, чем классификации. Естественно обобщает классификацию M-класса посредством многолого-логической регрессии ядра.
источник