Ясное объяснение «численной устойчивости матричной инверсии» в регрессии гребня и ее роль в уменьшении избыточного соответствия

10

Я понимаю, что мы можем использовать регуляризацию в задаче регрессии наименьших квадратов как

w=argminw[(yXw)T(yXw)+λw2]

и что эта проблема имеет решение в закрытой форме как:

w^=(XTX+λI)1XTy.

Мы видим, что во 2-м уравнении регуляризация просто добавляет λ к диагонали XTX , что делается для улучшения численной устойчивости инверсии матриц.

Мое текущее «грубое» понимание числовой стабильности состоит в том, что если функция станет более «численно устойчивой», то на ее выход будет меньше влиять шум на ее входах. Я испытываю трудности, связывая эту концепцию улучшенной числовой стабильности с общей картиной того, как она избегает / уменьшает проблему переобучения.

Я попытался просмотреть Википедию и несколько других университетских веб-сайтов, но они не углубляются в объяснение, почему это так.

начинающий
источник
Ридж регрессия приходит на ум. ссылка
EngrStudent
1
Вы можете найти некоторую ценность в (в основном описательном / интуитивном, а не алгебраическом) обсуждении в разделе Почему оценка гребня становится лучше, чем OLS, добавляя константу к диагонали?
Glen_b

Ответы:

2

В линейной модели , предполагая некоррелированные ошибки со средним нулем и имеющим полный ранг столбца, оценка наименьших квадратов является несмещенной оценкой для параметра . Однако эта оценка может иметь высокую дисперсию. Например, когда два столбца сильно коррелированы.Y=Xβ+ϵX(XTX)1XTYβX

Параметр штрафа делает смещенной оценкой , но уменьшает ее дисперсию. Кроме того, является последним ожиданием в байесовской регрессии с до . В этом смысле мы включаем в анализ некоторую информацию, которая говорит, что компоненты не должны быть слишком далеко от нуля. Опять же, это приводит нас к смещенной точечной оценке но уменьшает дисперсию оценки.λw^βw^βN(0,1λI)βββ

В условиях, когда большой размер, скажем, , подгонка по методу наименьших квадратов будет соответствовать данным почти идеально. Несмотря на непредвзятость, эта оценка будет очень чувствительной к колебаниям данных, потому что в таких больших измерениях будет много точек с высоким левереджем. В таких ситуациях знак некоторых компонентов может быть определен одним наблюдением. Срок штрафа приводит к уменьшению этих оценок до нуля, что может уменьшить MSE оценщика за счет уменьшения дисперсии.XNpβ^

Изменить: в своем первоначальном ответе я предоставил ссылку на соответствующий документ и в спешке я удалил ее. Вот оно: http://www.jarad.me/stat615/papers/Ridge_Regression_in_Practice.pdf

HStamper
источник
1
В его нынешнем виде это действительно больше комментарий; Как вы думаете, вы могли бы воплотить это в предметный ответ?
Серебряная
Нижняя часть р. 5 справа / верх п. На рис. 6 слева показано ключевое обсуждение вопроса, заданного в этом посте.
Марк Л. Стоун
Это все правильно, но я не уверен, что он отвечает на вопрос ОП.
амеба
amoeba, см. мой комментарий выше, который ссылается на ссылку, которая впоследствии была отредактирована из ответа Эрика Миттмана, jarad.me/stat615/papers/Ridge_Regression_in_Practice.pdf .
Марк Л. Стоун
1

Численная стабильность и переоснащение в некотором смысле связаны между собой, но это разные вопросы.

Классическая проблема МЖС:

Рассмотрим классическую задачу наименьших квадратов:

minimize(over b)(yXb)T(yXb)

Решением является классический . Идея состоит в том, что по закону больших чисел:b^=(XX)1(Xy)

limn1nXXE[xx]limn1nXyE[xy]

Следовательно, оценка OLS также сходится к . (В терминах линейной алгебры это линейная проекция случайной величины на линейную оболочку случайных величин .)b^E[xx]1E[xy]yx1,x2,,xk

Проблемы?

Механически, что может пойти не так? Каковы возможные проблемы?

  1. Для небольших выборок наши выборочные оценки и могут быть плохими.E[xx]E[xy]
  2. Если столбцы коллинеарны (либо из-за присущей коллинеарности, либо из-за небольшого размера выборки), проблема будет иметь континуум решений! Решение не может быть уникальным. X
    • Это происходит, если имеет недостаток ранга.E[xx]
    • Это также происходит, если имеет недостаток ранга из-за небольшого размера выборки по сравнению с количеством проблем регрессора.XX

Проблема (1) может привести к переобучению, так как оценка начинает отражать закономерности в выборке, которых нет в основной совокупности. Оценка может отражать шаблоны в и которые на самом деле не существуют в иb^1nXX1nXyE[xx]E[xy]

Проблема (2) означает, что решение не уникально. Представьте, что мы пытаемся оценить цену отдельной обуви, но пары обуви всегда продаются вместе. Это некорректная проблема, но, допустим, мы все равно это делаем. Мы можем верить, что цена левой обуви плюс цена правой обуви равна 50 долларам , но как мы можем определить индивидуальные цены? Устанавливает ли цена обуви а цена правой обуви ? Как мы можем выбрать из всех возможностей?pl=45pr=5

Представляем штраф :L2

Теперь рассмотрим:

minimize(over b)(yXb)T(yXb)+λb2

Это может помочь нам с обоими типами проблем. штраф толкает нашу оценку к нулю. Это эффективно работает как байесовский до того, как распределение по значениям коэффициента сосредоточено вокруг . Это помогает с переоснащением. Наша оценка будет отражать как данные, так и наши первоначальные убеждения, что близок к нулю.L2b0b

L2Регуляризация также всегда позволяет нам найти уникальное решение некорректных задач. Если мы знаем, что цена левого и правого башмака составляет , решение, которое также минимизирует норму - это выбрать .$50L2pl=pr=25

Это волшебство? Нет. Регуляризация - это не то же самое, что добавление данных, которые фактически позволили бы нам ответить на вопрос. Регуляризация в некотором смысле принимает мнение, что если вам не хватает данных, выбирайте оценки ближе к .L20

Мэтью Ганн
источник