Существует вариант повышения, называемый gentleboost . Чем плавное повышение отличается от более известного AdaBoost ?
machine-learning
boosting
Вебьорн Лёса
источник
источник
Ответы:
Вторая статья, на которую вы ссылаетесь, кажется, содержит ответ на ваш вопрос. Резюмировать; математически основное отличие заключается в форме используемой функции потерь. Функция потерь Фридмана, Хасти и Тибширани легче оптимизировать на каждой итерации. -
источник