Скажем, мы должны GLMMs
mod1 <- glmer(y ~ x + A + (1|g), data = dat)
mod2 <- glmer(y ~ x + B + (1|g), data = dat)
Эти модели не являются вложенными в обычном смысле:
a <- glmer(y ~ x + A + (1|g), data = dat)
b <- glmer(y ~ x + A + B + (1|g), data = dat)
поэтому мы не можем поступить так, anova(mod1, mod2)
как хотели бы anova(a ,b)
.
Можем ли мы использовать AIC, чтобы сказать, какая модель лучше?
источник
Для справки: контраргумент: Брайан Рипли утверждает в «Выбор среди больших классов моделей», стр. 6-7.
Соответствующий отрывок (также стр. 204 другого переиздания Акаике) начинается, как мне кажется, с фразы «Проблема идентификации статистической модели часто формулируется как проблема выбора ) ...») не вполне доступны здесь ; Я ищу PDF документ, чтобы процитировать отрывок здесь ...е( х |Кθ
Рипли, BD 2004. «Выбор среди больших классов моделей». В « Методах и моделях в статистике» , под редакцией Н. Адамса, М. Краудера, Д. Дж. Хэнда и Д. Стивенса, 155–70. Лондон, Англия: Imperial College Press.
Akaike, H. (1973) Теория информации и расширение принципа максимального правдоподобия. Во Втором международном симпозиуме по теории информации (ред. Б. Н. Петров и Ф. Каски), с. 267–281, Будапешт. Академия Кайдо. Перепечатано в прорывы в статистике , ред. Kotz, S. & Johnson, NL (1992), том I, стр. 599–624. Нью-Йорк: Спрингер.
источник
Похоже, Акаике подумал, что AIC был полезным инструментом для сравнения не вложенных моделей.
(Akaike 1985, стр. 399)
Акаике, Хиротугу. «Прогноз и энтропия». Избранные документы Хиротугу Акаике. Springer, New York, NY, 1985. 387-410.
источник