Интересно, чем отличаются t-тест и ANOVA в линейной регрессии?
- Является ли t-тест для проверки того, имеет ли какой-либо из уклонов и пересечений среднее значение «ноль», а ANOVA для проверки того, имеет ли все уклоны среднее значение «ноль»? Это единственная разница между ними?
- В простой линейной регрессии, т. Е. Там, где есть только одна переменная-предиктор, существует только один наклон для оценки. Итак, эквивалентны ли t-тест и ANOVA, и если да, то как, учитывая, что они используют разные статистические данные (t-тест использует t-статистику, а ANOVA использует F-статистику)?
Ответы:
Общая линейная модель позволяет нам написать модель ANOVA в качестве модели регрессии. Предположим, у нас есть две группы с двумя наблюдениями в каждой, то есть четыре наблюдения в векторе . Тогда исходная сверхпараметризованная модель имеет вид , где - матрица предикторов, т. Е. Фиктивные переменные индикатора: E ( y ) = X ⋆ β ⋆ X ⋆ ( μ 1 μ 1 μ 2 μ 2 ) = ( 1 1 0 1 1 0 1 0 1 1 0 1 ) ( β ⋆ 0 β ⋆ 1 β ⋆ 2 )y E(y)=X⋆β⋆ X⋆
Параметры не могут быть идентифицированы как потому что имеет ранг 2 ( не является обратимым). Чтобы изменить это, мы вводим ограничение (контрасты лечения), что дает нам новую модель : X ⋆ ( X ⋆ ) ′ X ⋆ β ⋆ 1 = 0 E ( y ) = X β ( μ 1 μ 1 μ 2 μ 2 ) = ( 1 0 1 0 1 1 1 1((X⋆)′X⋆)−1(X⋆)′E(y) X⋆ (X⋆)′X⋆ β⋆1=0 E(y)=Xβ
Итак, , т. принимает значение ожидаемого значения из нашей справочной категории (группа 1). , т. е. принимает значение различия для справочной категории. Поскольку с двумя группами есть только один параметр, связанный с групповым эффектом, нулевая гипотеза ANOVA (все параметры группового эффекта равны 0) совпадает с нулевой гипотезой регрессионного веса (параметр наклона равен 0).μ1=β0 β0 μ2=β0+β2 β2 μ2−μ1
-test в общей линейной модели проверяет линейную комбинацию параметров против гипотетического значения при нулевой гипотезы. Выбрав , мы можем проверить гипотезу, что (обычный тест для параметра наклона), то есть здесь , Оценщик: , где - это МНК оценки для параметров. Общий тест статистики для такого составляет:t ψ=∑cjβj ψ0 c=(0,1)′ β2=0 μ2−μ1=0 ψ^=∑cjβ^j β^=(X′X)−1X′y ψ
| | е | | 2 R п к ( Х ) = 2 ( Х ' х ) - 1 х ' = ( 0,5 0,5 0 0 - 0,5 - 0,5 0,5 0,5 ) β 0 = 0,5σ^2=∥e∥2/(n−Rank(X)) - объективная оценка дисперсии ошибок, где - сумма квадратов невязок. В случае двух групп , , и , таким образом , являются оценками и . С 1 в нашем случае, статистика теста становится такой:
∥e∥2 Rank(X)=2 (X′X)−1X′=(.5−.5.5−.50.50.5) β^0=0.5y1+0.5y2=M1 β^2=−0.5y1−0.5y2+0.5y3+0.5y4=M2−M1 c′(X′X)−1c
С более чем двумя группами гипотеза ANOVA (все равны 0, с ) относится к более чем одному параметру и не может быть выражена как линейная комбинация , поэтому тесты не эквивалентны , 1 ≤ j ψβj 1≤j ψ
источник
В 1 ANOVA обычно проверяет факторные переменные и то, является ли разница между группами значимой. Вы четко увидите разницу, если ваше программное обеспечение разрешает использовать переменные индикатора в регрессии: для каждого манекена вы получите значение ap, указывающее, значительно ли отличается оценка этой группы от 0, и, как следствие, значительно отличается от применяемой контрольной группы или контрольного значения. , Обычно вы не увидите, насколько важен сам индикатор, пока не пройдете тест ANOVA.
F-тест - это квадрат-критерий Стьюдента. Поэтому в 2-х то же самое.
источник