В настоящее время я беру свой первый примененный класс линейной регрессии на уровне выпускника, и я борюсь с преобразованиями предикторных переменных в множественной линейной регрессии. Текст, который я использую, Катнер и др. «Прикладные линейные статистические модели», похоже, не охватывает вопрос, который у меня возникает. (кроме предположения, что существует метод Бокса-Кокса для преобразования нескольких предикторов).
Когда сталкиваются с переменной отклика и несколькими переменными предиктора, какие условия стремятся встретиться с каждой переменной предиктора? Я понимаю, что в конечном итоге мы ищем постоянство дисперсии ошибок и нормально распределенных ошибок (по крайней мере, в тех методах, которым меня учили до сих пор). У меня было много заданий вернуться, где решение было, например y ~ x1 + (1/x2) + log(x3)
, где один или несколько предикторов был преобразован.
Я понял причину простой линейной регрессии, поскольку было легко взглянуть на y ~ x1 и связанную диагностику (qq графики остатков, остатков по сравнению с y, остатков по сравнению с x и т. Д.) И проверить, есть ли y ~ log ( х1) лучше соответствуют нашим предположениям.
Есть ли хорошее место, чтобы начать понимать, когда преобразовывать предиктор в присутствии многих предикторов?
Заранее спасибо. Matt