Что происходит, когда мы обучаем базовую опорную векторную машину (линейное ядро и отсутствие мягкого поля) на нелинейно разделимых данных? Задача оптимизации неосуществима, так что возвращает алгоритм минимизации?
Что происходит, когда мы обучаем базовую опорную векторную машину (линейное ядро и отсутствие мягкого поля) на нелинейно разделимых данных? Задача оптимизации неосуществима, так что возвращает алгоритм минимизации?
Я думаю, что базовая опорная векторная машина означает жесткую маржу SVM. Итак, давайте рассмотрим:
Короче говоря, мы хотим найти гиперплоскость с наибольшим запасом, которая была бы способна правильно разделить все наблюдения в нашем пространстве обучающей выборки.
Учитывая приведенное выше определение, какую проблему оптимизации мы должны решить?
max(margin)
margin
а также удовлетворить ограничение: нет ошибок в выборкеВозвращаясь к вашему вопросу, поскольку вы упомянули, что набор обучающих данных не является линейно разделимым, при использовании SVM с жестким полем без преобразований функций невозможно найти какую-либо гиперплоскость, которая удовлетворяет «Нет ошибок в выборке» .
Обычно мы решаем задачу оптимизации SVM с помощью квадратичного программирования, потому что она может выполнять задачи оптимизации с ограничениями. Если вы используете Gradient Descent или другие алгоритмы оптимизации, которые не удовлетворяют ограничениям SVM с жестким запасом, вы все равно должны получить результат, но это не гиперплоскость SVM с жестким запасом.
Кстати, с нелинейно разделяемыми данными, обычно мы выбираем