Какова асимптотическая временная сложность регрессии Лассо по мере роста числа строк или столбцов?
источник
Какова асимптотическая временная сложность регрессии Лассо по мере роста числа строк или столбцов?
Напомним, что Лассо является линейной моделью с регуляризацией.
Нахождение параметров можно сформулировать как задачу оптимизации без ограничений, где параметры задаются как
.
В ограниченной формулировке параметры задаются как
Это проблема квадратичного программирования и, следовательно, полином.
Почти все выпуклые процедуры оптимизации, даже для гибких нелинейных вещей, таких как нейронные сети, полагаются на вычисление производной ваших целевых параметров по параметрам. Вы не можете взять производную от хотя. Таким образом, вы полагаетесь на различные методы. Существует много методов поиска параметров. Вот обзорный документ на тему « Оптимизация наименьших квадратов с регуляризацией L1-нормы» . Сложность по времени итеративной выпуклой оптимизации довольно сложно проанализировать, поскольку она зависит от критерия сходимости. Как правило, итерационные проблемы сходятся в меньшее количество эпох по мере увеличения наблюдений.
Хотя @JacobMick предоставляет более широкий обзор и ссылку на обзорный документ, позвольте мне дать «краткий ответ» (который можно считать частным случаем его ответа).
Пусть число переменных-кандидатов (объектов, столбцов) равно а размер выборки (количество наблюдений, строк) - n . Рассмотрим LASSO, реализованный с использованием алгоритма LARS ( Efron et al., 2004 ). Вычислительная сложность LASSO составляет O ( K 3 + K 2 n ) ( там же )K n O(K3+K2n)
Ссылки:
источник