Весь смысл AIC или любого другого информационного критерия в том, что чем меньше, тем лучше. Поэтому, если у меня есть две модели M1: y = a0 + XA + e и M2: y = b0 + ZB + u, и если AIC первого (A1) меньше, чем у второго (A2), то M1 имеет лучше подходит с точки зрения теории информации. Но есть ли эталон отсечки для разницы A1-A2? Насколько меньше на самом деле меньше? Другими словами, есть ли тест для (А1-А2), отличный от глазного яблока?
Редактировать: Петр / Дмитрий ... Спасибо за ответ. На самом деле, это тот случай, когда мой основной опыт противоречит моему статистическому опыту. По сути, проблема заключается не в выборе между двумя моделями, а в проверке, добавляют ли две переменные, которые, как я знаю, в значительной степени эквивалентные, эквивалентные объемы информации (фактически, одна переменная в первой модели и вектор во второй. Подумайте о случае куча переменных по сравнению с их индексом.) Как отметил Дмитрий, лучшей ставкой, похоже, является тест Кокса. Но есть ли способ на самом деле проверить разницу между информационным содержанием двух моделей?
источник
Ответы:
Является ли вопрос любопытства, т.е. вы не удовлетворены моим ответом здесь ? Если не...
Дальнейшее исследование этого сложного вопроса показало, что существует широко распространенное эмпирическое правило, согласно которому две модели неразличимы по критерию если различие . То же самое вы действительно прочтете в статье в Википедии об (обратите внимание, что ссылка кликабельна!). Просто для тех, кто не нажимает на ссылки:| A I C 1 - A I C 2 | < 2 A I CAIC |AIC1−AIC2|<2 AIC
Хорошее объяснение и полезные предложения, на мой взгляд. Только не бойтесь читать то, что кликабельно!
Кроме того , обратите внимание еще раз, менее предпочтителен для крупномасштабных наборов данных. В дополнение к может оказаться полезным применить исправленную смещения версию критерия (вы можете использовать этот код или использовать формулу , где количество расчетных параметров). Эмпирическое правило будет таким же, хотя.AIC BIC AIC AICc AICc=AIC+2p(p+1)n−p−1 p
R
источник
Burnham, K. P., and Anderson, D.R. (2002). Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach, 2nd ed. Springer-Verlag. ISBN 0-387-95364-7.
и вики-страница до ревизии находится здесьЯ думаю, что это может быть попытка получить то, чего вы на самом деле не хотите.
Выбор модели не наука. За исключением редких обстоятельств, не существует ни одной совершенной модели, ни даже одной «истинной» модели; редко бывает даже одна «лучшая» модель. Обсуждения AIC против AICc против BIC против SBC против чего-либо оставляют меня в некотором замешательстве. Я думаю, что идея состоит в том, чтобы получить несколько хороших моделей. Затем вы выбираете среди них на основе сочетания основного опыта и статистических идей. Если вы не обладаете существенным опытом (редко); гораздо реже, чем думает большинство людей), выберите самый низкий AIC (или AICc или любой другой). Но у вас обычно есть некоторый опыт - иначе почему вы исследуете эти конкретные переменные?
источник