Недавно я принимал участие в нескольких обсуждениях статистики по Лассо (регуляризация), и постоянно поднимается вопрос: мы не очень понимаем, почему Лассо работает или почему он так хорошо работает. Мне интересно, к чему относится это утверждение. Очевидно, я понимаю, почему Лассо работает технически, путем предотвращения переоснащения путем сокращения параметров, но мне интересно, есть ли более глубокое значение такого утверждения. У кого-нибудь есть идеи? Спасибо!
machine-learning
lasso
regularization
user321627
источник
источник
Ответы:
Иногда не хватает связи между работающими статистиками и сообществом теоретиков обучения, которые изучают основы таких методов, как лассо. Теоретические свойства лассо на самом деле очень хорошо поняты.
Этот документ содержит краткое изложение в разделе 4 многих свойств, которыми он обладает. Результаты довольно технические, но по сути:
источник
Если, понимая, почему работает Lasso, вы понимаете, почему он выполняет выбор объектов (т. Е. Устанавливает веса для некоторых объектов равными точно 0), мы понимаем это очень хорошо:
источник
Существует проблема восстановления знака согласованности выбора модели (на что ответили статистики ), и
существует проблема логического вывода (построения хороших доверительных интервалов для оценок), которая является предметом исследования.
Большая часть работы выполняется статистиками, а не «сообществом теории обучения».
источник