В случае простой линейной регрессии вы можете получить оценку наименьших квадратов , что вам не нужно знать чтобы оценитьβ 1 = Σ ( х я - ˉ х ) ( у я - ˉ у )β 0 β 1
Предположим, у меня есть , как мне получить без оценки ? или это невозможно?β 1 β 2
В случае простой линейной регрессии вы можете получить оценку наименьших квадратов , что вам не нужно знать чтобы оценитьβ 1 = Σ ( х я - ˉ х ) ( у я - ˉ у )β 0 β 1
Предположим, у меня есть , как мне получить без оценки ? или это невозможно?β 1 β 2
Ответы:
Вывод в матричной записи
Начиная с , что на самом деле так же, какy=Xb+ϵ
все это сводится к minimzing :e′e
Таким образом, минимизация дает нам:e′e′
e ′ e = ( y - X b ) ′ ( y - X b )minb e′e=(y−Xb)′(y−Xb)
е ' е = у ' у - 2 б ' X ' у + б ' Х ' Х Ьminb e′e=y′y−2b′X′y+b′X′Xb
Последнее математическое условие, условие второго порядка для минимума требует, чтобы матрица была положительно определенной. Это требование выполняется, если имеет полный ранг.XX′X X
Более точный вывод, который проходит через все этапы в большей глубине, можно найти в http://economictheoryblog.com/2015/02/19/ols_estimator/
источник
*
быть+
? Кроме того, не должно ли быть вместо чтобы размеры соответствовали? б NМожно оценить только один коэффициент в множественной регрессии без оценки других.
Оценка получается путем удаления эффектов от других переменных и последующей регрессии остатков отношению к остаткам . Это объясняется и иллюстрируется. Как именно один контролирует другие переменные? и Как нормализовать (а) коэффициент регрессии? , Прелесть этого подхода в том, что он не требует исчисления, линейной алгебры, может быть визуализирован с использованием только двумерной геометрии, численно стабилен и использует только одну фундаментальную идею множественной регрессии: идею исключения (или «контроля за»). ) влияние одной переменной.x 2 y x 1β1 x2 y x1
В данном случае множественная регрессия может быть выполнена с использованием трех обычных шагов регрессии:
Регресс на (без постоянного члена!). Пусть подгонка будет . Оценка: Поэтому остатки Геометрически, - это то, что осталось от после вычитания его проекции на .x 2 y = α y , 2 x 2 + δ α y , 2 = ∑ i y i x 2 iy x2 y=αy,2x2+δ δ=y-αy,2x2. δух2
Регресс на (без постоянного члена). Пусть подгонка будет . Оценка составляетОстатки:Геометрически, - это то, что осталось от после вычитания его проекции на .x1 x2 x1=α1,2x2+γ
Регресс on (без постоянного члена). Это оценкаПодгонка будет . Геометрически, является компонентом (который представляет с ) в направлении (который представляет с ).δ γ
Обратите внимание, что не был оценен.β2 Его легко можно восстановить из того, что было получено до сих пор (точно так же, как в обычном регрессионном случае легко получить из оценки наклона ). являются остатки для двухмерного регрессии на и .β^0 β^1 ε y x1 x2
Сильна параллель с обычной регрессией: шаги (1) и (2) являются аналогами вычитания средних в обычной формуле. Если вы позволите быть вектором единиц, вы фактически восстановите обычную формулу.x2
Это обобщает очевидным образом регрессию с более чем двумя переменными: для оценки , регрессии и отдельно для всех остальных переменных, а затем регрессии их остатков друг против друга. В этот момент ни один из других коэффициентов в множественной регрессии еще не был оценен.β^1 y x1 y
источник
Обычная оценка наименьших квадратов является линейной функцией переменной откликаβ . Проще говоря, оценка OLS коэффициентов, , может быть записана с использованием только зависимой переменной ( ) и независимых переменных ( ').β Yi Xki
Чтобы объяснить этот факт для общей регрессионной модели, вам необходимо понять небольшую линейную алгебру. Предположим, вы хотите оценить коэффициенты в модели множественной регрессии,(β0,β1,...,βk)
где для . Матрица проектирования представляет собой матрицу где каждый столбец содержит наблюдений зависимой переменной . Вы можете найти много объяснений и выкладок здесь формул используются для расчета оценки коэффициентов , чтоя = 1 , . , , , n X n × k n k t h X kϵi∼iidN(0,σ2) i=1,...,n X n×k n kth Xk β^=(β^0,β^1,...,β^k)
предполагая, что существует обратное . Расчетные коэффициенты являются функциями данных, а не других расчетных коэффициентов.(X′X)−1
источник
Небольшое небольшое замечание о теории и практике. Математически можно оценить по следующей формуле:β0,β1,β2...βn
где - исходные входные данные, а - переменная, которую мы хотим оценить. Это следует из минимизации ошибки. Я докажу это, прежде чем высказать небольшое практическое замечание.X Y
Пусть - ошибка, которую линейная регрессия совершает в точке . Затем:ei i
Общая квадратичная ошибка, которую мы делаем сейчас:
Поскольку у нас есть линейная модель, мы знаем, что:
Который может быть переписан в матричной записи как:
Мы знаем это
Мы хотим минимизировать общую квадратную ошибку, чтобы следующее выражение было как можно меньше
Это равно:
Переписывание может показаться запутанным, но это следует из линейной алгебры. Обратите внимание, что матрицы ведут себя подобно переменным, когда мы умножаем их в некоторых отношениях.
Мы хотим найти значения , чтобы это выражение было как можно меньше. Нам нужно будет дифференцировать и установить производную равной нулю. Здесь мы используем цепное правило.β
Это дает:
Так, что в конечном итоге:
Математически мы, кажется, нашли решение. Однако есть одна проблема, которая заключается в том, что очень трудно вычислить, если матрица очень очень большая. Это может привести к проблемам с числовой точностью. Другой способ найти оптимальные значения для в этой ситуации - использовать метод градиентного спуска. Функция, которую мы хотим оптимизировать, является неограниченной и выпуклой, поэтому мы также будем использовать метод градиента на практике, если это будет необходимо.(X′X)−1 X β
источник
Простой вывод можно сделать, просто используя геометрическую интерпретацию LR.
Линейный регрессионный можно интерпретировать как проекции на колонку пространства . Таким образом, ошибка, ортогонален к колонке пространства .Y X ϵ^ X
Следовательно, внутреннее произведение между и ошибкой должно быть 0, т.е.X′
Что подразумевает это,
Теперь то же самое можно сделать:
(1) Проецирование на (ошибка ), ,Y X2 δ=Y−X2D^ D^=(X′2X2)−1X′2y
(2) Проецирование на (ошибка ), ,X1 X2 γ=X1−X2G^ G^=(X′1X1)−1X1X2
и наконец,
(3) Проецирование на ,δ γ β^1
источник