Я хочу предсказать некоторое значение и я пытаюсь получить некоторое предсказание которое оптимизирует между минимально возможным, но все же большим, чем . Другими словами: У ( х ) У ( х ) стоимость { Y ( х ) ≳ Y ( х ) } > > Стоимость { Y ( х ) ≳ Y ( х ) }
Я думаю, что простая линейная регрессия должна работать совершенно нормально. Так что я немного знаю, как реализовать это вручную, но, думаю, я не первый, кто сталкивается с такой проблемой. Есть ли какие-нибудь пакеты / библиотеки (предпочтительно python), которые делают то, что я хочу? Какое ключевое слово мне нужно искать?
Что если бы я знал функцию где . Каков наилучший способ реализации этих ограничений?
machine-learning
logistic-regression
asPlankBridge
источник
источник
Ответы:
Если я вас правильно понимаю, вы хотите ошибиться в сторону переоценки. Если это так, вам нужна соответствующая асимметричная функция стоимости. Одним простым кандидатом является настройка квадрата потерь:
где - это параметр, который вы можете использовать, чтобы компенсировать штраф недооценки и переоценки. Положительные значения приводят к переоценке, поэтому вы должны установить отрицательным. В питоне это выглядит так- 1 < α < 1 α α
def loss(x, a): return x**2 * (numpy.sign(x) + a)**2
Далее давайте сгенерируем некоторые данные:
Наконец, мы сделаем нашу регрессию в
tensorflow
библиотеке машинного обучения от Google, которая поддерживает автоматическое дифференцирование (упрощая оптимизацию таких задач на основе градиента). Я буду использовать этот пример в качестве отправной точки.cost
является обычной квадратической ошибкой, в то времяacost
как вышеупомянутая асимметричная функция потерь.Если вы используете,
cost
вы получаетеЕсли вы используете,
acost
вы получаетеacost
явно старается не недооценивать. Я не проверял на конвергенцию, но вы поняли идею.источник
acost
функции. Имеет ли значение, что вы рассчитываетеy_model-Y
дважды?Выберите асимметричную функцию потерь. Одним из вариантов является квантильная регрессия (линейная, но с разными наклонами для положительных и отрицательных ошибок).
источник