В ряде ссылок я читал, что оценка Лассо для вектора параметра регрессии эквивалентна апостериорной моде в которой предыдущее распределение для каждого является двойным экспоненциальным распределением (также известным как распределение Лапласа).
Я пытался доказать это, кто-то может конкретизировать детали?
regression
bayesian
lasso
prior
regularization
Wintermute
источник
источник
Ответы:
Для простоты, давайте просто рассмотрим одно наблюдение переменной такое чтоY
Тогда объединенная плотность пропорциональнаY,μ,σ2
Взятие журнала и отбрасывание терминов, которые не включают , \ log f (Y, \ mu, \ sigma ^ 2) = - \ frac {1} {\ sigma ^ 2} \ Vert y- \ mu \ Vert_2 ^ 2 - \ лямбда \ верт \ му \ верт. \ quad (1)μ
Таким образом, максимум (1) будет оценкой MAP и действительно является проблемой Лассо после того, как мы повторно параметризовалиλ~=λσ2 .
Расширение на регрессию очевидно - замените на в правдоподобии Норма и установите предшествующий на последовательность независимых распределений Лапласа .μ Xβ β (λ)
источник
Это очевидно по количеству, оптимизируемому LASSO.
Возьмите априор для как независимый Лаплас со средним нулем и некоторой шкалой .βi τ
Итак, .p(β|τ)∝e−12τ∑i|βi|
Модель для данных - это обычное регрессионное предположение .y∼iidN(Xβ,σ2)
Теперь минус вдвое больше логово задних имеет форму
Пусть и мы получим posterior ofλ=σ2/τ −2log
Оценка MAP для сводит к минимуму вышеизложенное, что минимизируетβ
Таким образом, оценщик MAP для - это LASSO.β
(Здесь я рассматривал как эффективно исправленный, но вы можете делать с ним другие вещи и при этом получать LASSO.)σ2
Изменить: это то, что я получаю за составление ответа в автономном режиме; Я не видел, чтобы хороший ответ был уже отправлен Эндрю. Мой действительно ничего не делает, его уже нет. Сейчас я оставлю свой, потому что он дает еще пару деталей развития с точки зрения .β
источник