Я подгоняю модель множественной линейной регрессии между 4 категориальными переменными (по 4 уровня в каждой) и числовым выходом. Мой набор данных имеет 43 наблюдения.
Регрессия дает мне следующие из -test для каждого коэффициента наклона: . Таким образом, коэффициент для 4-го предиктора является значимым при уровне достоверности .
С другой стороны, регрессия дает мне значение от общего теста нулевой гипотезы о том, что все мои коэффициенты наклона равны нулю. Для моего набора данных это значение равно .
Мой вопрос: как мне интерпретировать эти результаты? Какое значение следует использовать и почему? Значительно ли отличается коэффициент для 4-й переменной от при доверительном уровне ?
Я видел , связанный с этим вопрос, и статистики в регрессию , но была противоположная ситуация: высокая -TEST -значения и низкий -test -значение. Честно говоря, я не совсем понимаю, зачем нам нужен тест в дополнение к тесту, чтобы увидеть, значительно ли отличаются коэффициенты линейной регрессии от нуля.
Ответы:
Я не уверен, что здесь происходит мультиколлинеарность. Конечно, это может быть, но из предоставленной информации я не могу сделать вывод, и я не хочу начинать с этого. Мое первое предположение состоит в том, что это может быть проблемой множественных сравнений. То есть, если вы запустите достаточно тестов, что-то появится, даже если там ничего нет.
Одна из проблем, которую я обсуждаю, заключается в том, что проблема множественных сравнений всегда обсуждается с точки зрения изучения множества парных сравнений, например, выполнения t-тестов для каждой уникальной пары уровней. (Для юмористического подхода к множественным сравнениям смотрите здесь .) У людей создается впечатление, что это единственное место, где проявляется эта проблема. Но это просто неправда - проблема множественных сравнений проявляется везде, Например, если вы запускаете регрессию с 4 объясняющими переменными, существуют те же проблемы. В хорошо спроектированном эксперименте IV могут быть ортогональными, но люди обычно беспокоятся об использовании поправок Бонферрони на множествах априорных, ортогональных контрастов и не думают дважды о факторных ANOVA. На мой взгляд, это противоречиво.
Глобальный F-тест - это то, что называется «одновременным» тестом. Это проверяет, все ли ваши предикторы не связаны с переменной ответа. Одновременный тест обеспечивает некоторую защиту от проблемы множественных сравнений, не прибегая к дорогостоящему маршруту Бонферрони. К сожалению, моя интерпретация того, что вы сообщаете, заключается в том, что у вас нулевая находка.
Несколько вещей смягчают эту интерпретацию. Во-первых, имея всего 43 данных, вы почти наверняка не обладаете большой мощностью. Вполне возможно, что есть реальный эффект, но вы не можете решить его без дополнительных данных. Во-вторых, как и @andrea, и @Dimitriy, я беспокоюсь о целесообразности обработки четырехуровневых категориальных переменных как числовых. Это может быть неуместно и может иметь любое количество эффектов, в том числе снижение вашей способности обнаруживать то, что на самом деле там. Наконец, я не уверен, что тестирование значимости так важно, как полагают люди.п из +0,11 является своего рода минимума; там действительно что-то происходит? может быть! кто знает? - в .05 нет «яркой линии», которая отделяет реальные эффекты от простого внешнего вида.
источник
Я хотел бы предположить, что это явление (незначительного общего теста, несмотря на значительную индивидуальную переменную) можно понимать как некий совокупный «маскирующий эффект» и что, хотя оно предположительно может возникнуть из мультиколлинеарных объясняющих переменных, оно не должно это вообще. Также оказывается, что это происходит не из-за множественных корректировок сравнения. Таким образом, этот ответ добавляет некоторые уточнения к уже появившимся ответам, которые, наоборот, предполагают, что виновниками являются либо мультиколлинеарность, либо множественные сравнения.
Чтобы установить правдоподобие этих утверждений, давайте сгенерируем набор совершенно ортогональных переменных - как можно более неколлинеарных - и зависимой переменной, которая явно определяется только первым из объяснений (плюс большое количество случайных ошибок независимо от всего остального). В
R
это можно сделать (воспроизводимым, если вы хотите экспериментировать) , какНеважно, что объясняющие переменные являются двоичными; важна их ортогональность, которую мы можем проверить, чтобы убедиться, что код работает должным образом, что можно сделать, проверив их корреляции. Действительно, корреляционная матрица интересна : предполагаемые малые коэффициенты
y
имеют мало общего с какой-либо из переменных, кроме первой (которая является расчетной), а недиагональные нули подтверждают ортогональность объясняющих переменных:Давайте запустим серию регрессий , используя только первую переменную, затем первые две и так далее. Для краткости и удобства сравнения в каждом из них я показываю только строку для первой переменной и общий F-критерий:
Посмотрите, как (а) значение первой переменной практически не изменяется, (а ') первая переменная остается значимой (р <0,05) даже при корректировке нескольких сравнений ( например , примените Бонферрони, умножив номинальное значение р на (число объяснительных переменных), (б) коэффициент первой переменной почти не изменяется, но (в) общая значимость растет в геометрической прогрессии, быстро увеличиваясь до незначительного уровня.
Я интерпретирую это как демонстрацию того, что включение объясняющих переменных, которые в значительной степени не зависят от зависимой переменной, может «маскировать» общее значение р регрессии. Когда новые переменные ортогональны существующим и зависимой переменной, они не изменят отдельные p-значения. (Небольшие изменения, наблюдаемые здесь, связаны с тем, что добавленная случайная ошибка
y
, случайно, слегка коррелирует со всеми другими переменными.) Из этого следует извлечь урок: скупость полезна : использование как можно меньшего количества переменных может усилить значение результаты.Я не говорю, что это обязательно происходит с набором данных в вопросе, о котором мало что было раскрыто. Но знание того, что этот маскирующий эффект может произойти, должно послужить основой для нашей интерпретации результатов, а также для наших стратегий выбора переменных и построения моделей.
источник
rnorm(2^p, sd=2)
, обратите внимание, что первый аргумент - это число терминов, а не среднее. Среднее значение по умолчанию равно нулю и поэтому не было явно указано.rnorm()
Это часто случается, когда у вас высокая степень коллинеарности среди объясняющих переменных. ANOVA F - это совместный тест, в котором все регрессоры являются совместно неинформативными. Когда ваши X содержат аналогичную информацию, модель не может приписать объяснительную силу тому или иному регрессору, но их комбинация может объяснить большую часть различий в переменной отклика.
источник