Я читаю Элементы статистического обучения и на странице 12 (раздел 2.3) линейная модель обозначается как:
... где - транспонирование вектора-столбца предикторов / независимых переменных / входных данных. ( В нем говорится , ранее «все векторы предполагаются векторы - столбцов» , так что это не сделаешь Й Т вектор - строки , и & beta ; вектор - столбец?)
В включено « 1 », которое нужно умножить на соответствующий коэффициент, дающий (постоянный) перехват.
Это говорит:
В n - мерного ввода-вывода пространства, ( X , Y ) представляет собой гиперплоскость. Если константа включена в X , то гиперплоскость включает начало координат и является подпространством; если нет, то это аффинное множество, пересекающее ось Y в точке ( 0 , ^ β 0 ) .
Имеют ли « » описывают вектор , образованные конкатенациями предсказателей, интерсепт в « 1 » и Y ? И почему включение « 1 » в X заставляет гиперплоскость проходить через начало координат, несомненно, что « 1 » нужно умножить на ^ β 0 ?
Я не понимаю книгу; любая помощь / совет / ссылки на ресурсы будут очень благодарны.
Ответы:
( Изменить: я только что понял, что для вашего второго вопроса это как раз наоборот, вы написали, что регистрируете включение или исключение константы. Однако, я уже разработал решение здесь, и я поправляюсь, если я ошибаюсь в этом. )
Я знаю, что матричное представление регрессии может быть довольно запутанным в начале, но в конечном итоге оно значительно упрощается при выводе более сложной алгебры. Надеюсь это немного поможет.
источник
Я думаю, что способ думать об этом, чтобы изменить это уравнение:
источник