Я не могу понять использование полиномиальных контрастов в регрессионном подборе. В частности, я имею в виду кодировку, используемую R
для выражения интервальной переменной (порядковой переменной с одинаково разнесенными уровнями), описанную на этой странице .
В примере на этой странице , если я правильно понял, R соответствует модели для интервальной переменной, возвращая некоторые коэффициенты, которые взвешивают ее линейный, квадратичный или кубический тренд. Следовательно, подобранная модель должна быть:
где должен принимать значения , , или 4 в соответствии с различным уровнем переменной интервала.2 3
Это верно? И если да, то какова была цель полиномиальных контрастов?
r
regression
contrasts
Пиппо
источник
источник
contr.poly
в R.Ответы:
Напомним (и в случае, если гиперссылки OP потерпят неудачу в будущем), мы смотрим на набор данных
hsb2
как таковой:которые можно импортировать сюда .
Мы превращаем переменную
read
в и упорядоченную / порядковую переменную:Теперь мы все настроены на запуск обычного ANOVA - да, это R, и у нас в основном есть непрерывная зависимая переменная
write
и пояснительная переменная с несколькими уровнямиreadcat
. В R мы можем использоватьlm(write ~ readcat, hsb2)
1. Генерация контрастной матрицы:
Упорядоченная переменная имеет четыре разных уровняn - 1 = 3
readcat
, поэтому у нас будет контрастов.Для начала давайте взглянем на деньги и посмотрим на встроенную функцию R:
Теперь рассмотрим, что происходило под капотом:
Что там произошло?( - 1,5 )0 ( - 0,5 )0 0,50 1,50 ( - 1,5 )1 , 0,5 1 и 1,5 1 ; третье из ( - 1,5 ) 2 = 2,25( - 0,5 )1 0,51 1,51 ( - 1,5 )2= 2,25 , , 0,5 2 = 0,25 и 1,5 2 = 2,25 ; и четвертый, ( - 1,5 ) 3 = - 3,375 , ( - 0,5 ) 3 = - 0,125 , 0,5 3 = 0,125 и 1,5 3 = 3,375 .( - 0,5 )2= 0,25 0,52= 0,25 1,52= 2,25 ( - 1,5 )3= - 3,375 ( - 0,5 )3= - 0,125 0,53= 0,125 1.53=3.375
outer(a, b, "^")
поднимает элементыa
к элементамb
, таким образом , что первые результаты столбцов из операций, , ( - 0,5 ) 0 , 0,5 0 и 1,5 0 ; второй столбец из ( - 1,5 ) : 1 ,Далее мы делаем ортонормированное разложение этой матрицы и берем компактное представление Q ( ). Некоторые из внутренних функций функций, используемых в факторизации QR в R, используемых в этом посте, объясняются здесь далее .QR
c_Q = qr(X)$qr
... из которых мы сохраняем только диагональ (R QR
z = c_Q * (row(c_Q) == col(c_Q))
). Что лежит в диагонали: просто «нижние» записи части разложения Q R. Только? ну нет ... Оказывается, диагональ верхней треугольной матрицы содержит собственные значения матрицы!Далее мы вызываем следующую функцию:Q Q Qz
raw = qr.qy(qr(X), z)
результат, который может быть воспроизведен «вручную» двумя операциями: 1. Превращение компактной формы , т. Е. В Q , преобразование, которое может быть достигнуто с помощью , и 2. Выполнение умножение матриц Q z , как в .qr(X)$qr
Q = qr.Q(qr(X))
Q %*% z
Важно отметить, что умножение на собственные значения R не изменяет ортогональность векторов составляющих столбцов, но, учитывая, что абсолютное значение собственных значений появляется в порядке убывания сверху вниз слева направо, умножение Q z будет иметь тенденцию к уменьшению значения в полиномиальных столбцах высшего порядка:Q R Qz
Сравните значения в более поздних векторах столбцов (квадратичных и кубических) до и после операций факторизации и с незатронутыми первыми двумя столбцами.QR
Наконец, мы называем
(Z <- sweep(raw, 2L, apply(raw, 2L, function(x) sqrt(sum(x^2))), "/", check.margin = FALSE))
превращение матрицыraw
в ортонормированные векторы:"/"
apply(raw, 2, function(x)sqrt(sum(x^2)))
2 2.236 2 1.341
contr.poly(4)
(sum(Z[,3]^2))^(1/4) = 1
z[,3]%*%z[,4] = 0
2. Какие контрасты (столбцы) вносят существенный вклад в объяснение различий между уровнями в объясняющей переменной?
Мы можем просто запустить ANOVA и посмотреть на резюме ...
summary(lm(write ~ readcat, hsb2))
... чтобы увидеть линейное влияние
readcat
наwrite
, так что исходные значения (в третьем фрагменте кода в начале сообщения) можно воспроизвести как:... или...
... или намного лучше ...
Графически это гораздо проще понять. Сравните фактические средние значения по группам в больших квадратных черных блоках с предсказанными значениями и посмотрите, почему оптимально приближение прямой линии с минимальным вкладом квадратичных и кубических полиномов (с кривыми, аппроксимированными только с лессом):
Если бы просто для эффекта коэффициенты ANOVA были такими же большими для линейного контраста для других приближений (квадратичного и кубического), то бессмысленный график, приведенный ниже, более четко отображал бы полиномиальные графики каждого «вклада»:
Код здесь .
источник
qr.qy()
функции, но я определенно постараюсь выяснить, смогу ли я сказать что-то минимально связное по вашему вопросу, как только у меня будет время.Я буду использовать ваш пример, чтобы объяснить, как это работает. Использование полиномиальных контрастов с четырьмя группами дает следующее.
Где первое уравнение работает для группы с наименьшими оценками чтения, а четвертое - для группы с лучшими показателями чтения. мы можем сравнить эти уравнения с приведенным с помощью нормальной линейной регрессии (предположим,г е дя это непрерывно)
Обычно вместоL , Q , C вам придется β1, β2, β3 и написано на первой позиции. Но это письмо напоминает полиномиальные контрасты. Так что цифры передL , Q , C на самом деле вместо г е дя, Т е а д2я, Т е а д3я , Вы можете увидеть эти коэффициенты раньшеL have linear trend, before Q quadratic and before C cubic.
Then R estimates parametersμ,L,Q,C and gives you
В этом примере значительно ненулевойLˆ , Таким образом, ваш вывод может быть следующим: мы видим, что лучший результат в письменной форме линейно зависит от оценки чтения, но нет значительного квадратичного или кубического эффекта.
источник