У меня есть логистическая модель GLM с 8 переменными. Я anova(glm.model,test='Chisq')
выполнил тест хи-квадрат в R, и 2 переменные оказываются прогнозирующими, если их упорядочивать в верхней части теста, и не так сильно, когда их упорядочивают в нижней части. Предполагается, summary(glm.model)
что их коэффициенты незначительны (высокое значение p). В этом случае кажется, что переменные не являются значимыми.
Я хотел спросить , что является лучшим тестом переменных значимости - коэффициент значимости в кратком изложении модели или хи-квадрат теста с anova()
. Кроме того - когда один из них лучше другого?
Я предполагаю, что это широкий вопрос, но любые советы о том, что следует учитывать, будут признательны.
Ответы:
В дополнение к ответу @ gung я постараюсь привести пример того, что
anova
самом деле тестирует функция. Я надеюсь, что это позволит вам решить, какие тесты подходят для гипотез, которые вы интересуетесь тестированием.my.mod <- glm(y~x1+x2+x3, family="binomial")
anova(my.mod, test="Chisq")
glm(y~1, family="binomial")
противglm(y~x1, family="binomial")
glm(y~x1, family="binomial")
противglm(y~x1+x2, family="binomial")
glm(y~x1+x2, family="binomial")
противglm(y~x1+x2+x3, family="binomial")
Таким образом, он последовательно сравнивает меньшую модель со следующей более сложной моделью, добавляя одну переменную на каждом шаге. Каждое из этих сравнений делается через теста отношения правдоподобия (тест LR; см. Пример ниже). Насколько мне известно, эти гипотезы редко представляют интерес, но вы должны решить это.
Вот пример в
R
:summary(my.mod)
являются тесты Вальда, которые проверяют следующие гипотезы (обратите внимание, что они взаимозаменяемы и порядок тестов не имеет значения ):x1
:glm(y~x2+x3, family="binomial")
противglm(y~x1+x2+x3, family="binomial")
x2
:glm(y~x1+x3, family="binomial")
противglm(y~x1+x2+x3, family="binomial")
x3
:glm(y~x1+x2, family="binomial")
противglm(y~x1+x2+x3, family="binomial")
Таким образом, каждый коэффициент против полной модели, содержащей все коэффициенты. Тесты Вальда являются приближением теста отношения правдоподобия. Мы также могли бы сделать тесты отношения правдоподобия (тест LR). Вот как:
summary(my.mod)
выше.Примечание. Сравнение третьей модели дляп -значение одинаковое, 7,088 ⋅ 10- 5 , Каждый раз проводится сравнение между моделью без модели
rank
ofanova(my.mod, test="Chisq")
- то же самое, что и сравнение дляrank
примера ниже (anova(mod1.2, my.mod, test="Chisq")
). Каждый разrank
и моделью, содержащей ее.источник
test="Chisq"
вы не проводите тест отношения правдоподобия, вам нужно установитьtest="LRT"
это, см. ? Anova.glm .test="LRT"
иtest="Chisq"
являются синонимами (это говорится на странице, на которую вы ссылаетесь).test="LRT"
лучше, поскольку сразу становится ясно, что это критерий отношения правдоподобия. Я изменил это. Спасибо.7.088e-05, 0.01419, 00.03684
следует интерпретировать p-значения ( )?