Предположим, у меня есть простая однослойная нейронная сеть с n входами и одним выходом (задача двоичной классификации). Если я установлю функцию активации в выходном узле как сигмовидную функцию, то результатом будет классификатор логистической регрессии.
В этом же сценарии, если я изменю выходную активацию на ReLU (выпрямленная линейная единица), то будет ли результирующая структура такой же или похожей на SVM?
Если нет, то почему?
neural-networks
svm
ОБЪЯВЛЕНИЕ
источник
источник
Ответы:
Чтобы потери в сети были в той же форме, что и SVM, мы можем просто удалить любые нелинейные функции активации с выходного уровня и использовать потери в петлях для обратного распространения.
Таким образом, с точки зрения функций потерь, SVM и логистическая регрессия довольно близки, хотя SVM используют совсем другой алгоритм для обучения и вывода, основанный на опорных векторах.
Хорошее обсуждение взаимосвязи SVM и логистической регрессии в разделе 7.1.2 книги « Распознавание образов и машинное обучение» .
источник