Пирсон В.С. Остатки отклонений в логистической регрессии

16

Я знаю, что стандартизированные остатки Пирсона получены традиционным вероятностным способом:

ri=yiπiπi(1πi)

и Остаточные отклонения получаются более статистическим способом (вклад каждой точки в вероятность):

di=si2[yilogπi^+(1yi)log(1πi)]

где = 1, если y i = 1, и s i = -1, если y i = 0.siyisiyi

Можете ли вы объяснить мне, интуитивно, как интерпретировать формулу для остатков отклонения?

Более того, если я хочу выбрать тот, который больше подходит и почему?

Кстати, некоторые ссылки утверждают, что мы получаем остатки отклонения на основе термина

12ri2

где упоминается выше.ri

Джек Ши
источник
Любые мысли будут оценены
Джек Ши
1
Когда вы говорите «некоторые ссылки» ... какие ссылки и как они это делают?
Glen_b

Ответы:

10

Логистическая регрессия стремится максимизировать функцию логарифмического правдоподобия

LL=kln(Pi)+rln(1Pi)

PiY^=1kY=1rY=0

Это выражение равно

LL=(kdi2+rdi2)/2

because a case's deviance residual is defined as:

di={2ln(Pi)if Yi=12ln(1Pi)if Yi=0

Thus, binary logistic regression seeks directly to minimize the sum of squared deviance residuals. It is the deviance residuals which are implied in the ML algorithm of the regression.

The Chi-sq statistic of the model fit is 2(LLfull modelLLreduced model), where full model contains predictors and reduced model does not.

ttnphns
источник