Логика F-теста ANOVA в простой линейной регрессии

17


Я пытаюсь понять логику F-теста ANOVA в Простом линейном регрессионном анализе. У меня такой вопрос: Когда значение F, т.е. MSR/MSEбольшое, мы принимаем модель как значимую. Какая логика стоит за этим?

Не могу сказать
источник
@ Can'tTell Вы можете найти некоторую помощь по форматированию здесь: stats.stackexchange.com/editing-help

Ответы:

21

В простейшем случае, когда у вас есть только один предиктор (простая регрессия), скажем, X1 , F тест говорит вам, объясняет ли включение X1 большую часть дисперсии, наблюдаемой в Y по сравнению с нулевой моделью (только перехват) , Идея заключается в том, чтобы проверить, является ли добавленная объясненная дисперсия (общая дисперсия, TSS, минус остаточная дисперсия, RSS) достаточно большой, чтобы ее можно было рассматривать как «значительную величину». Здесь мы сравниваем модель с одним предиктором или пояснительной переменной с базовой линией, которая является просто «шумом» (ничего, кроме большого среднего).

Аналогично, вы можете вычислить статистику в настройке множественной регрессии: в этом случае это составляет тест всех предикторов, включенных в модель, что в рамках структуры HT означает, что мы задаемся вопросом, полезен ли какой-либо из них для прогнозирования ответа переменная. Это причина, по которой вы можете столкнуться с ситуациями, когда F- тест для всей модели является значительным, тогда как некоторые из t или z- тестов, связанных с каждым коэффициентом регрессии, не имеют значения.FFtz

В статистика выглядит какF

F=(TSSRSS)/(p1)RSS/(np),

где - количество параметров модели, а n - количество наблюдений. Эта величина должна быть отнесена к распределению F p - 1 , n - p для критического или p- значения. Это относится и к простой регрессионной модели, и, очевидно, имеет некоторую аналогию с классической структурой ANOVA.pnFп-1,N-пп

Примечание. Когда у вас есть более одного предиктора, вы можете задаться вопросом, «снижает» ли качество подбора модели рассмотрение только поднабора этих предикторов. Это соответствует ситуации, когда мы рассматриваем вложенные модели . Это в точности та же ситуация, что и выше, где мы сравниваем данную регрессионную модель с нулевой моделью (без предикторов). Чтобы оценить уменьшение объясненной дисперсии, мы можем сравнить остаточную сумму квадратов (RSS) в обеих моделях (то есть то, что осталось необъяснимым, если учесть влияние предикторов, присутствующих в модели). Пусть и M 1 обозначают базовую модель (с pM0M1ппараметры) и модель с дополнительным предиктором ( параметры), то если RSS M 1 - RSS M 0 мала, мы считаем, что модель меньшего размера работает так же хорошо, как и модель большего размера. Хорошей статистикой для использования будет отношение таких СС, ( RSS M 1 - RSS M 0 ) / RSS M 0 , взвешенное по степеням свободы ( p - q для числителя и n - pQзнак равноп+1RSSM1-RSSM0(RSSM1-RSSM0)/RSSM0п-QN-пдля знаменателя). Как уже было сказано, можно показать, что эта величина следует распределению (или Фишера-Снедекора) с p - q и n - p степенями свободы. Если наблюдаемое F больше соответствующего квантиля F при данном α (обычно α = 0,05 ), то мы бы пришли к выводу, что большая модель делает «лучшую работу». (Это ни в коем случае не означает, что модель верна с практической точки зрения!)Fп-QN-пFFαα=0.05

Обобщением вышеприведенной идеи является критерий отношения правдоподобия .

Если вы используете R, вы можете поиграть с вышеуказанными понятиями, как это:

df <- transform(X <- as.data.frame(replicate(2, rnorm(100))), 
                                   y = V1+V2+rnorm(100))
## simple regression
anova(lm(y ~ V1, df))         # "ANOVA view"
summary(lm(y ~ V1, df))       # "Regression view"
## multiple regression
summary(lm0 <- lm(y ~ ., df))
lm1 <- update(lm0, . ~ . -V2) # reduced model
anova(lm1, lm0)               # test of V2
хл
источник
@chl - Прежде всего, хороший ответ! Это может оправдать его собственный вопрос, поэтому дайте мне знать ... но описания, которые я читал о таблицах ANOVA для моделей регрессии, обычно ссылаются на три строки в таблице: предикторы, ошибки и итоги. Однако anova()функция в R возвращает отдельную строку для каждого предиктора в модели. Например, anova(lm0)выше возвращает строку для V1, V2и Residuals(и не всего). Таким образом, мы получаем две F * статистики для этой модели. Как это меняет интерпретацию статистики F *, представленной в таблице ANOVA?
Погоня
@ Чейз Да, таблица ANOVA, которую я имею в виду, организована таким же образом. Не стесняйтесь задавать вопрос; Я хотел бы услышать, что другие пользователи думают об этом. Я вообще использую anova()для сравнения GLM. При применении к объекту lmили aov, он отображает отдельные эффекты (SS) для каждого термина в модели и не показывает TSS. (Раньше я применял это наоборот, а именно, после подбора ANOVA aov(), я могу использовать, summary.lm()чтобы получить представление о контрастах лечения.) Однако между summary.lm()и summary.aov(), особенно в отношении последовательной подгонки , существуют тонкие проблемы .
ЧЛ
@Chase я просто заново открыл это очень хороший ответ от @Gavin о толковании ого АиРа) выходном ( .
ЧЛ
@chl - Немного придираюсь от меня. Это хороший ответ об интуиции, стоящей за F-тестом, и о том, как она «движется в правильном направлении». Но это не объясняет логику того, почему вы должны выбрать именно этот тест. Например, почему мы не должны использовать статистику PRESS? Вы намекаете отношения правдоподобия - что делает иметь логическое обоснование - следовательно , его применимость ко всем моделям, в отличии от F-теста.
вероятностная
@probabilityislogic Хороший вопрос. Первоначально моя идея заключалась в том, чтобы показать логику сравнения моделей, из которых простая регрессионная модель является лишь частным случаем (сравните с «очень нулевой» моделью), что также мотивирует быстрое замечание о LRT. Я согласен с вами, если мы будем работать в духе чистого подхода Неймана-Пирсона для ХТ. Тем не менее, я в основном думал с точки зрения теории LM, где SS имеют прямую геометрическую интерпретацию и где сравнение моделей или одиночный F-тест для одностороннего ANOVA (...)
гл