Что такое переменная-супрессор в множественной регрессии и какие могут быть способы визуального отображения эффекта подавления (его механизм или свидетельство в результатах)? Я хотел бы пригласить всех, у кого есть мысли, поделиться.
40
Ответы:
Существует ряд часто упоминаемых регрессионных эффектов, которые концептуально различны, но имеют много общего, если рассматривать их чисто статистически (см., Например, эту статью «Эквивалентность эффекта посредничества, смешения и подавления» Дэвида Маккиннона и др. Или статьи из Википедии):
Я не собираюсь обсуждать, в какой степени некоторые или все они технически схожи (для этого прочитайте статью, приведенную выше). Моя цель - попытаться наглядно показать, что такое подавитель . Приведенное выше определение, что «супрессор - это переменная, включение которой усиливает эффект другого IV на DV», кажется мне потенциально широким, потому что оно ничего не говорит о механизмах такого усиления. Ниже я обсуждаю один механизм - единственный, который я считаю подавлением. Если есть и другие механизмы (как сейчас, я не пытался размышлять о любом таком другом), то либо вышеприведенное «широкое» определение следует считать неточным, либо мое определение подавления следует считать слишком узким.
Определение (в моем понимании)
Подавитель - это независимая переменная, которая при добавлении в модель повышает наблюдаемый R-квадрат в основном из-за учета остатков, оставленных моделью без него, а не из-за своей собственной связи с DV (который сравнительно слаб). Мы знаем, что увеличение R-квадрата в ответ на добавление IV является квадратом корреляции частей этого IV в этой новой модели. Таким образом, если частичная корреляция IV с DV больше (по абсолютной величине), чем нулевой порядок между ними, то IV является подавителем.r
Таким образом, подавитель в основном «подавляет» ошибку сокращенной модели, будучи слабым как сам предиктор. Термин ошибки является дополнением к прогнозу. Прогноз «проецируется» или «распределяется между» IV (коэффициентами регрессии), как и термин «ошибка» («дополняет» коэффициенты). Подавитель подавляет такие компоненты ошибок неравномерно: больше для некоторых IV, меньше для других IV. Для тех ИВ, «чьи» такие компоненты, он сильно подавляет, он оказывает значительную облегчающую помощь, фактически повышая их коэффициенты регрессии .
Несильные подавляющие эффекты встречаются часто и дико ( пример на этом сайте). Сильное подавление обычно вводится сознательно. Исследователь ищет характеристику, которая должна коррелировать с DV как можно более слабой и в то же время коррелировать с чем-то в IV интереса, что считается несоответствующим, бесполезным в отношении DV. Он вводит его в модель и получает значительное увеличение предсказательной силы этого IV. Коэффициент подавителя обычно не интерпретируется.
Я мог бы подытожить свое определение следующим образом [в ответ на @ Jake и комментарии @ gung]:
«Помощник» - это роль IV только в конкретной модели , а не характеристика отдельной переменной. Когда другие IV добавляются или удаляются, подавитель может внезапно прекратить подавление или возобновить подавление или изменить фокус своей подавляющей активности.
Нормальная ситуация регрессии
На первом рисунке ниже показана типичная регрессия с двумя предикторами (мы будем говорить о линейной регрессии). Изображение скопировано отсюда, где оно объясняется более подробно. Короче говоря, умеренно коррелированные (= имеющие острый угол между ними) предикторы и X 2 охватывают 2-мерное пространство «плоскость X». Зависимая переменная Y проецируется на нее ортогонально, оставляя предсказанную переменную Y ′ и остатки с st. Отклонение равно длине эл . R-квадрат регрессии - это угол между Y и Y ′Икс1 Икс2 Y Y' е Y Y' и два коэффициента регрессии напрямую связаны с перекосными координатами и b 2 соответственно. Эту ситуацию я назвал нормальной или типичной, потому что и X 1, и X 2 коррелируют с Y (наклонный угол существует между каждым из независимых и зависимых), а предикторы борются за предсказание, потому что они коррелированы.б1 б2 Икс1 Икс2 Y
Подавление ситуации
Это показано на следующем рисунке. Этот похож на предыдущий; однако вектор теперь несколько отклоняется от зрителя, и X 2 значительно изменил свое направление. Х 2 действует как подавитель. Прежде всего отметим , что вряд ли коррелирует с Y . Следовательно, он не может быть ценным предиктором . Во- вторых. Представьте, что X 2 отсутствует, и вы предсказываете только по X 1 ; предсказание этой регрессии с одной переменной изображается красным вектором Y ∗ , ошибка - вектором e ∗ , а коэффициент определяется как b ∗Y Икс2 Икс2 Y Икс2 Икс1 Y* е* б* координата (которая является конечной точкой ).Y*
Теперь вернитесь к полной модели и обратите внимание, что довольно коррелирует с e ∗ . Таким образом, X 2, введенный в модель, может объяснить значительную часть этой ошибки приведенной модели, сокращая e ∗ до e . Это созвездие: (1) X 2 не является конкурентом X 1 в качестве предиктора ; и (2) Х 2 представляет собой мусорщик , чтобы забрать unpredictedness оставленного X 1 , - делает Й 2 супрессораИкс2 е* Икс2 е* е Икс2 Икс1 Икс2 Икс1 Икс2 , В результате этого эффекта предсказательная сила выросла в некоторой степени: b 1 больше, чем b ∗ .Икс1 б1 б*
Хорошо, почему называется подавителем для X 1 и как он может усиливать его, когда «подавляет» его? Посмотрите на следующую картинку.Икс2 Икс1
Это точно так же, как и предыдущий. Подумайте еще раз о модели с единственным предиктором . Этот предиктор, конечно, может быть разложен на две части или компоненты (показаны серым цветом): часть, которая «отвечает» за предсказание Y (и, таким образом, совпадает с этим вектором), и часть, которая «отвечает» за непредсказуемость (и таким образом, параллельно e ∗ ). Именно эта вторая часть X 1 - части, не относящейся к Y - подавляется X 2, когда этот подавитель добавляется в модель. Нерелевантная часть подавляется и, таким образом, учитывая, что подавитель сам не предсказывает YИкс1 Y е* Икс1 Y Икс2 Y Как бы то ни было, соответствующая часть выглядит сильнее. Подавитель - это не предиктор, а скорее посредник для другого / другого предиктора. Потому что это конкурирует с тем, что мешает им предсказывать.
Знак коэффициента регрессии подавителя
Это признак корреляции между подавителем и переменной ошибки оставленной приведенной (без подавителя) моделью. На изображении выше, это положительно. В других настройках (например, изменить направление X 2 ) оно может быть отрицательным.е* Икс2
Подавление и изменение знака коэффициента
Добавление переменной, которая будет служить супрессором, может, а может и не изменить знак коэффициентов некоторых других переменных. Эффекты «подавления» и «изменения знака» - это не одно и то же. Более того, я считаю, что подавитель никогда не сможет изменить знак тех предикторов, которым они служат подавителю. (Было бы шокирующим открытием специально добавить подавитель, чтобы облегчить переменную, а затем обнаружить, что она действительно стала сильнее, но в обратном направлении! Я был бы благодарен, если бы кто-то мог показать мне, что это возможно.)
Подавление и диаграмма Венна
Нормальная регрессионная ситуация часто объясняется с помощью диаграммы Венна.
A + B + C + D = 1, все изменчивость. Площадь B + C + D - изменчивость, учитываемая двумя IV ( X 1 и X 2 ), R-квадратом; оставшаяся область A является изменчивостью ошибки. B + C = r 2 Y X 1 ; D + C = r 2 Y X 2 , корреляции Пирсона нулевого порядка. Б и Д являются квадрат часть (semipartial) корреляции: B = г 2 Y ( Х 1 . ХY Икс1 Икс2 р2YИкс1 р2YИкс2 ; D=R2 Y ( Х 2 . Х 1 ) . B / (A + B)=r2 Y X 1 . X 2 иD / (A + D)=r2 Y X 2 . X 1 - квадратные частичные корреляции, которые имеют тоже основное значение,что и стандартизированные коэффициенты регрессии бета.р2Y( X1, Икс2) р2Y( X2, Икс1) р2YX1.X2 r2YX2.X1
Согласно приведенному выше определению (которое я придерживаюсь), что подавителем является IV с частичной корреляцией, превышающей корреляцию нулевого порядка, является подавителем, если D area> D + C area. Это не может быть отображено на диаграмме Венна. (Это означало бы, что C с точки зрения X 2 не «здесь» и не является той же сущностью, что и C с точки зрения X 1. Чтобы изобразить себя, нужно придумать что-то вроде многослойной диаграммы Венна).X2 X2 X1
Пример данных
Результаты линейной регрессии:
Обратите внимание, что служил подавителем. Его корреляция нулевого порядка с Y практически равна нулю, но его корреляция по частям намного больше по величине, - .244 . Это в некоторой степени усилило прогностическую силу X 1 (от r. 419 , потенциальная бета в простой регрессии с ним до бета 0,538 в множественной регрессии).X2 Y −.224 X1 .419 .538
Согласно формальному определению, являлся подавителем, потому что его корреляция по частям больше, чем его корреляция нулевого порядка. Но это потому, что у нас есть только два IV в простом примере. Концептуально X 1 не является подавителем, потому что его r с Y не равно 0 .X1 X1 r Y 0
Кстати, сумма корреляций квадратов частей превысила R-квадрат:,
.4750^2+(-.2241)^2 = .2758 > .2256
что не произошло бы в нормальной регрессионной ситуации (см. Диаграмму Венна выше).PS Закончив свой ответ, я нашел этот ответ (@gung) с красивой простой (схематической) диаграммой, которая, кажется, согласуется с тем, что я показал выше по векторам.
источник
Вот еще один геометрический вид подавления, но вместо того, чтобы находиться в пространстве наблюдений, как пример @ttnphns, этот находится в переменном пространстве , пространстве, где живут повседневные диаграммы рассеяния.
Мы можем построить наше уравнение регрессии в виде плоскости в пространстве переменных, которая выглядит следующим образом:
Смешной случай
Случай подавления
Иллюстративные наборы данных
Если вы хотите поиграть с этими примерами, вот код R для генерации данных, соответствующих значениям примера, и запуска различных регрессий.
источник
R
, я загрузил два набора данных, сгенерированных с помощью приведенного выше кода, которые вы можете загрузить и проанализировать с помощью выбранного вами пакета статистики. Ссылки: (1) psych.colorado.edu/~westfaja/confounding.csv (2) psych.colorado.edu/~westfaja/suppression.csv . Я тоже добавлю семя.Вот как я думаю об эффекте подавления. Но, пожалуйста, дайте мне знать, если я ошибаюсь.
Вот пример двоичного результата (классификация, логистическая регрессия). Мы можем видеть, что нет существенной разницы в X1, нет разницы в X2, но сложите X1 и X2 вместе (т.е. правильное x1 для x2 или наоборот), и выборки можно классифицировать почти идеально, и, таким образом, переменные теперь очень значимы ,
источник