Я думаю, что boostrap будет лучшим вариантом для получения надежных SE. Это было сделано в некоторой прикладной работе с использованием методов усадки, например, анализа данных Консорциума по ревматоидному артриту в Северной Америке с использованием подхода регрессивной логистической регрессии (BMC Proceedings 2009). Есть также хорошая статья от Casella о вычислениях SE с оштрафованной моделью, Penalized Regression, Standard Errors и Bayesian Lassos (Bayesian Analysis 2010 5 (2)). Но они больше озабочены штрафными санкциями лассо и эластикета .
Я всегда думал о регрессии гребня как о способе получить более точные прогнозы, чем стандартная OLS, где модель, как правило, не является парциальной. Для выбора переменных более подходящими являются критерии лассо или эластик , но тогда трудно применить процедуру начальной загрузки (поскольку выбранные переменные будут меняться от одной выборки к другой и даже во внутренней петле кратного сгиба, используемой для оптимизации ℓ 1 / ℓ 2 параметры); это не относится к регрессии гребня, поскольку вы всегда учитываете все переменные.kℓ1ℓ2
Я понятия не имею о пакетах R, которые дадут эту информацию. Похоже, он недоступен в пакете glmnet (см. Статью Фридмана в JSS, Пути регуляризации для обобщенных линейных моделей с помощью координатного спуска ). Тем не менее, Джелле Goeman , который является автором штрафуется пакет обсудить этот вопрос тоже. Не могу найти оригинальный PDF в Интернете, поэтому я просто цитирую его слова:
Это очень естественный вопрос - спросить о стандартных ошибках коэффициентов регрессии или других оценочных величин. В принципе, такие стандартные ошибки могут быть легко вычислены, например, с помощью начальной загрузки.
Тем не менее, этот пакет намеренно не предоставляет их. Причина этого заключается в том, что стандартные ошибки не очень значимы для сильно смещенных оценок, например, возникающих из-за штрафных методов оценки. Оштрафованная оценка - это процедура, которая уменьшает дисперсию оценок путем введения существенного смещения. Таким образом, смещение каждой оценки является основным компонентом его среднеквадратичной ошибки, тогда как ее дисперсия может вносить лишь небольшую часть.
К сожалению, в большинстве случаев применения регрессионного наказания невозможно получить достаточно точную оценку смещения. Любые расчеты, основанные на бутстрапе, могут дать только оценку дисперсии оценок. Надежные оценки смещения доступны только при наличии надежных несмещенных оценок, что обычно не имеет место в ситуациях, когда используются штрафные оценки.
Поэтому сообщение о стандартной ошибке оштрафованной оценки рассказывает только часть истории. Это может создать ошибочное впечатление высокой точности, полностью игнорируя неточность, вызванную смещением. Конечно, ошибочно делать заявления о достоверности, которые основаны только на оценке дисперсии оценок, как это делают доверительные интервалы на основе бутстрапа.
Предполагая, что процесс генерирования данных следует стандартным предположениям, лежащим в основе OLS, стандартные ошибки для регрессии гребня определяются как:
Обозначения выше соответствуют вики-обозначениям для регрессии гребня . В частности,
источник
Что обычно неправильно понимают в регуляризации Тихонова, так это то, что степень сглаживания очень мало связана с подгонкой кривой, поэтому следует использовать коэффициент сглаживания, чтобы минимизировать ошибку интересующих параметров. Вы должны были бы объяснить намного больше о конкретной проблеме, которую вы пытаетесь решить, чтобы правильно использовать регрессию гребня в некотором действительном контексте обратной задачи, и многие из статей по выбору сглаживающих факторов, а также многие из опубликованных применений регуляризации Тихонова немного эвристический.
Более того, Тихоновская регуляризация является лишь одной из обратных проблемных проблем среди многих. Перейдите по ссылке в журнал Обратные задачи .
источник