Напомним, что функциональной формой логистической регрессии является
f(x)=11+e−(β0+β1x1+⋯+βkxk)
Это то, что возвращается predict_proba
.
Термин внутри экспоненты
d(x)=β0+β1x1+⋯+βkxk
это то, что возвращается decision_function
. «Гиперплоскость», упомянутая в документации,
β0+β1x1+⋯+βkxk=0
Эта терминология является пережитком машин опорных векторов, которые буквально оценивают разделяющую гиперплоскость. Для логистической регрессии эта гиперплоскость является чем-то вроде искусственной конструкции, это плоскость равной вероятности, где модель определила, что оба целевых класса одинаково вероятны.
predict
Функция возвращает решение класса с помощью правила
f(x)>0.5
На риск мыльницы, у этой predict
функции очень мало законных применений, и я рассматриваю ее как признак ошибки при проверке работы других. Я бы пошел достаточно далеко, чтобы назвать это ошибкой проектирования в самом sklearn ( predict_proba
функция должна была быть вызвана predict
и predict
должна была быть вызвана predict_class
, если вообще что-то было).