Понимание t-критерия линейной регрессии

17

Я пытаюсь понять, как выполнить проверку гипотезы о линейной регрессии (нулевая гипотеза не имеет корреляции). Кажется, что каждое руководство и страница по теме, с которой я сталкиваюсь, используют t-тест. Но я не понимаю, что на самом деле означает t-критерий для линейной регрессии. T-тест, если у меня нет совершенно неправильного понимания или ментальной модели, используется для сравнения двух групп населения. Но регрессор и регрессанд не являются выборками из одинаковых групп населения и могут даже не относиться к одной единице, поэтому сравнивать их не имеет смысла.

Итак, когда мы используем t-тест на линейной регрессии, что мы на самом деле делаем?

Jaymmer - Восстановить Монику
источник

Ответы:

37

Вы, вероятно, думаете о двух образцах t теста, потому что это часто первое место, где появляется t распределение. Но на самом деле все t тесты означают, что эталонное распределение для тестовой статистики является t распределением. Если ZN(0,1) и S2χd2 причем Z и S2 независимы, то

ZS2/dtd
по определению. Я пишу это, чтобы подчеркнуть, чтораспределениеt- это просто имя, которое было дано распределению этого отношения, потому что оно много подходит, и что-нибудь в этой форме будет иметьраспределениеt. Для t-критерия для двух выборок это соотношение появляется потому, что при нулевом значении разность средних представляет собой гауссиану с нулевым средним, а оценку дисперсии для независимых гауссианов представляет собой независимое значениеχ2(независимость можно показать с помощьютеоремы Басу который использует тот факт, что стандартная оценка дисперсии в гауссовой выборке является вспомогательной по отношению к среднему значению совокупности, в то время как среднее значение по выборке является полным и достаточным для этой же величины).

С линейной регрессией мы в основном получаем то же самое. В векторной . Пусть S 2 j = ( X T X ) - 1 j j и предположим, что предикторы X неслучайны. Если бы мы знали сг 2 мы будем иметь & beta ; J - 0β^N(β,σ2(XTX)1)Sj2=(XTX)jj1Xσ2 при нулевойH0:βJ=0поэтому мы бысамом деле иметь тест Z. Но когда мы оцениваемσ2мыконечном итоге сχ2случайной величинойчто при наших предположениях нормальности, оказывается независимыми от нашей статистики беты Jа затем мы получаемтраспределение.

β^j0σSjN(0,1)
H0:βj=0σ2χ2β^jt

Вот подробности этого: предположим, что . Полагая H = X ( X T X ) - 1 X T матрица шляпы мы имеем | | е | | 2 = | | ( I - Н ) у | | 2 = у Т ( I - Н ) у . H идемпотент, поэтому мы имеем действительно хороший результат, yN(Xβ,σ2I)H=X(XTX)1XT

e2=(IH)y2=yT(IH)y.
H с параметром нецентральности δ = β T X T ( I - H ) X β = β T ( X T X - X T X ) β = 0 , так что на самом деле это центральный χ 2 с n - p
yT(IH)y/σ2χnp2(δ)
δ=βTXT(IH)Xβ=βT(XTXXTX)β=0χ2npстепеней свободы (это частный случай теоремы Кохрана ). Я использую для обозначения количества столбцов X , поэтому, если один столбец X дает перехват, то у нас будет p - 1 предиктор без перехвата. Некоторые авторы используют p как число предикторов без перехвата, поэтому иногда вы можете увидеть что-то вроде n - p - 1 в степенях свободы, но это все одно и то же.pXXp1pnp1

Результатом этого является то, что , так что σ 2 : = 1E(eTe/σ2)=npпрекрасно работает как оценкаσ2.σ^2:=1npeTeσ2

Это означает , что β J - это отношение стандартного гауссиана к хи-квадрату, деленное на его степени свободы. Чтобы закончить это, нам нужно показать независимость и мы можем использовать следующий результат:

β^jσ^Sj=β^jSjeTe/(np)=β^jσSjeTeσ2(np)

Результат: для и матриц A и B в R l × k и R m × k соответственно, A Z и B Z независимы тогда и только тогда, когда A Σ B T = 0 (это упражнение 58 (b) в главе 1 «Математической статистики Цзюнь Шао» ).ZNk(μ,Σ)ABRl×kRm×kAZBZAΣBT=0

Мы имеем β = ( X T X ) - 1 X Т у и е = ( Я - Н ) у , где у ~ N ( X β , сг 2 I ) . Это означает ( X T X ) - 1 X Tσ 2 I ( I - H ) T = σ 2β^=(XTX)1XTye=(IH)yyN(Xβ,σ2I) так & beta ; ⊥е, иследовательно , & beta ; ⊥ е Т е.

(XTX)1XTσ2I(IH)T=σ2((XTX)1XT(XTX)1XTX(XTX)1XT)=0
β^eβ^eTe

Результатом является теперь мы знаем , бета J по желанию (при всех вышеуказанных допущений).

β^jσ^Sjtnp

C=(AB)(l+m)×kAB

CZ=(AZBZ)N((AμBμ),CΣCT)
СΣСTзнак равно(AВ)Σ(ATВT)знак равно(AΣATAΣВTВΣATВΣВT),
СZAΣВTзнак равно0AZВZСZ

JLD
источник
3
+1 всегда с удовольствием читаю твой ответ.
Haitao Du
9

@ Chaconne ответ велик. Но вот гораздо более короткая нематематическая версия!

Поскольку цель состоит в том, чтобы вычислить значение P, сначала необходимо определить нулевую гипотезу. Почти всегда, это то, что наклон фактически горизонтальный, поэтому числовое значение для наклона (бета) составляет 0,0.

Склон соответствует вашим данным не 0,0. Это расхождение из-за случайной случайности или из-за неправильной гипотезы? Вы никогда не сможете ответить на этот вопрос наверняка, но значение P - это один из способов получить ответ.

Программа регрессии сообщает стандартную ошибку наклона. Вычислите коэффициент t как наклон, деленный на его стандартную ошибку. На самом деле это (наклон минус нулевой наклон гипотезы), деленный на стандартную ошибку, но наклон нулевой гипотезы почти всегда равен нулю.

Теперь у вас есть в соотношении. Число степеней свободы (df) равно количеству точек данных минус количество параметров, подходящих для регрессии (два для линейной регрессии).

С помощью этих значений (t и df) вы можете определить значение P с помощью онлайн-калькулятора или таблицы.

По сути, это t-критерий с одной выборкой, сравнивающий наблюдаемое вычисленное значение (наклон) с гипотетическим значением (нулевая гипотеза).

Харви Мотульский
источник
4
Реальный вопрос заключается в том, почему это «по сути один t-критерий из одной выборки», и я не понимаю, как это может стать ясным из вашего ответа ...
говорит амеба Reinstate Monica