Ниже приводится модель, созданная из mtcars
набора данных:
> ols(mpg~wt+am+qsec, mtcars)
Linear Regression Model
ols(formula = mpg ~ wt + am + qsec, data = mtcars)
Model Likelihood Discrimination
Ratio Test Indexes
Obs 32 LR chi2 60.64 R2 0.850
sigma 2.4588 d.f. 3 R2 adj 0.834
d.f. 28 Pr(> chi2) 0.0000 g 6.456
Residuals
Min 1Q Median 3Q Max
-3.4811 -1.5555 -0.7257 1.4110 4.6610
Coef S.E. t Pr(>|t|)
Intercept 9.6178 6.9596 1.38 0.1779
wt -3.9165 0.7112 -5.51 <0.0001
am 2.9358 1.4109 2.08 0.0467
qsec 1.2259 0.2887 4.25 0.0002
Модель кажется хорошей с общим 0,85. Однако частичные значения показанные на следующем графике, не суммируют с этим значением. Они составляют в целом около 0,28. R 2
> plot(anova(mod), what='partial R2')
Существует ли какая-либо связь между суммой всех частичных и общей суммой ? Анализ сделан с пакетом. R 2rms
Ответы:
Нет.
Один из способов понять частичное для данного предиктора - это то, что оно равно которое вы получите, если сначала регрессируете свою независимую переменную для всех других предикторов , возьмите невязки и регрессируете те, что в оставшемся предикторе. R 2R2 R2
Таким образом, если, например, все предикторы абсолютно идентичны (коллинеарны), можно иметь приличное , но частичное для всех предикторов будет точно равно нулю, потому что любой отдельный предиктор имеет нулевую дополнительную объяснительную силу. R 2R2 R2
С другой стороны, если все предикторы вместе прекрасно объясняют зависимую переменную, т. Е. , тогда частичное для каждого предиктора также будет равно , потому что все, что не объяснено всеми остальными предикторами, может быть прекрасно объяснено оставшимися один.R 2 1R2=1 R2 1
Таким образом, сумма всех частичных может легко быть ниже или выше общего . Они не должны совпадать, даже если все предикторы являются ортогональными. Частичное - немного странная мера.R 2 R 2R2 R2 R2
Посмотрите эту длинную ветку для более подробной информации: Важность предикторов в множественной регрессии: Частичное против стандартизированных коэффициентовR2 .
источник