Что означают остатки в логистической регрессии?

62

Отвечая на этот вопрос, Джон Кристи предложил оценить соответствие моделей логистической регрессии путем оценки остатков. Я знаком с тем, как интерпретировать невязки в OLS, они находятся в том же масштабе, что и DV, и очень четко различие между y и y, предсказанное моделью. Однако для логистической регрессии, в прошлом я обычно только проверял оценки соответствия модели, например, AIC, потому что я не был уверен, что остаток будет означать для логистической регрессии. Посмотрев в помощь АиР файлы немного , я вижу , что в R существует пять типов GLM остатков доступны, c("deviance", "pearson", "working","response", "partial"). Файл справки относится к:

У меня нет копии этого. Есть ли короткий способ описать, как интерпретировать каждый из этих типов? В логистическом контексте сумма квадратов остатков обеспечит значимую меру соответствия модели или лучше использовать критерий информации?

russellpierce
источник
2
В этом вопросе есть элементы, которые остаются без ответа, например, природа «Пирсона», «работающего», «ответа» и «частичного» остатка, но сейчас я приму ответ Тилаколео.
Расселпирс
Я нахожу, что binnedplotфункция в руке пакета R дает очень полезный график остатков. Это хорошо описано на стр.97-101 Gelman and Hill 2007 .
conjugateprior
1
Один действительно простой способ проверить соответствие модели - это график зависимости наблюдаемых от прогнозируемых пропорций. Но это не сработает, если у вас есть регрессия Бернулли (т.е. все ваши наблюдения имеют уникальные комбинации независимых переменных, так что ), потому что вы просто увидите линию нулей и единиц. ni=1
вероятностная
Да, к сожалению, я обычно использую Bernoulli DV.
Russellpierce
1
Смотрите также Понимание остатков glm $ и остатка (glm) в Переполнении стека .
gung - Восстановить Монику

Ответы:

32

Простейшие остатки для понимания - это отклонения от отклонения, например, в квадрате их сумма в -2 раза больше логарифмической вероятности. В простейших терминах логистическая регрессия может быть понята с точки зрения подгонки функции для известного таким образом, чтобы минимизировать общее отклонение, которое является суммой квадратов остатков отклонения всех точек данных.Xp=logit1(Xβ)X

Отклонение (квадрат) каждой точки данных равно (-2 раза) логарифму разности между ее прогнозируемой вероятностью и дополнением к ее фактическому значению (1 для контроля; 0 для случая) в абсолютном выражении. Идеальное совпадение точки (которая никогда не встречается) дает отклонение от нуля, так как log (1) равно нулю. Плохо подобранная точка имеет большое остаточное отклонение, так как логарифм очень маленького значения в два раза больше большого числа.logit1(Xβ)

Выполнение логистической регрессии сродни поиску бета-значения таким образом, чтобы сумма квадратов невязок отклонения была сведена к минимуму.

Это можно проиллюстрировать сюжетом, но я не знаю, как его загрузить.

Thylacoleo
источник
1
Reg images: Используйте один из бесплатных хостингов изображений (поиск в Google), загрузите сюжет на этот сайт и разместите ссылку здесь.
Я исправил ошибку в своем первоначальном ответе. Я сначала написал p = logit (X бета). Фактически прогнозируемая вероятность - это обратный логит линейной комбинации, p = inv-logit (X бета). В R это рассчитывается как p <-plogit (X beta), который равен p = exp (X beta) / (1 + exp (X * beta)).
Thylacoleo
1
Из какого пакета R plogit? Не было ясно, определяете ли вы это здесь или получаете откуда-то еще.
Amyunimus
1
@Amyunimus plogitв R (статистика), пакет не требуется (по крайней мере, больше)
russellpierce
7

На остатки Пирсона,

Остаток Пирсона - это разница между наблюдаемой и оценочной вероятностями, деленная на биномиальное стандартное отклонение оценочной вероятности. Поэтому стандартизация остатков. Для больших образцов стандартизированные остатки должны иметь нормальное распределение.

От Менар, Скотт (2002). Прикладной логистический регрессионный анализ, 2-е издание. Тысяча Оукс, Калифорния: Sage Publications. Серия: Количественные приложения в социальных науках, № 106. Первое издание, 1995. См. Главу 4.4.

tosonb1
источник
8
это не совсем верно в отношении больших выборок. Скорее, вам требуется большое количество биномиальных ячеек или, что то же самое, большое количество репликации ковариат. Остатки Пирсона далеки от нормального распределения для любого наблюдения, где . n i < 5nini<5
вероятностная
5

Рабочие остатки - это остатки в последней итерации любого итеративно взвешенного метода наименьших квадратов . Я считаю, что это означает невязки, когда мы думаем, что это последняя итерация нашего запуска модели. Это может привести к дискуссии о том, что запуск модели - это итеративное упражнение.

Аюш Бияни
источник