Логистическая регрессия - проблемы мультиколлинеарности / ловушки

16

В Логистической регрессии, нужно ли заботиться о мультиколлинеарности так же, как если бы вы были в прямой регрессии МНК?

Например, в случае логистической регрессии, когда существует мультиколлинеарность, нужно ли вам быть осторожным (как в случае регрессии МНК) с выводом из бета-коэффициентов?

Для регрессии МНК одним «исправлением» высокой мультиколлинеарности является регрессия гребня, есть ли что-то подобное для логистической регрессии? Кроме того, отбрасывание переменных или объединение переменных.

Какие подходы целесообразны для уменьшения влияния мультиколлинеарности в логистической регрессии? Они по сути такие же, как OLS?

(Примечание: это не для целей разработанного эксперимента)

Брэндон Бертельсен
источник

Ответы:

16

Все те же принципы, касающиеся мультиколлинеарности, применяются к логистической регрессии, как и к МНК. Можно использовать ту же диагностику, оценивающую мультиколлинеарность (например, VIF, номер условия, вспомогательные регрессии), и можно использовать те же методы уменьшения размерности (например, объединение переменных с помощью анализа главных компонентов).

Этот ответ chl приведет вас к некоторым ресурсам и R-пакетам для подбора штрафных логистических моделей (а также к хорошему обсуждению этих типов штрафных регрессионных процедур). Но некоторые ваши комментарии о «решениях» мультиколлинеарности меня немного смущают. Если вы заботитесь только об оценке отношений для переменных, которые не являются коллинеарными, эти «решения» могут подойти, но если вы заинтересованы в оценке коэффициентов переменных, которые являются коллинеарными, эти методы не решат вашу проблему. Хотя проблема мультиколлинеарности является технической в ​​том смысле, что ваша матрица переменных предикторов не может быть инвертирована, она имеет логический аналог в том, что ваши предикторы не являются независимыми, и их эффекты не могут быть однозначно идентифицированы.

Энди У
источник
2
(+1) Да, существуют некоторые штрафные версии логистической регрессии (или, в более общем смысле, GLM), см. Некоторые ссылки там: stats.stackexchange.com/questions/4272/… .
ЧЛ
@ CHL, спасибо. Я обновил ссылку на ваш предыдущий ответ.
Энди W
Спасибо тоже. Это был просто комментарий к твоему и без того превосходному ответу.
ЧЛ