Я пытаюсь понять матричные обозначения и работаю с векторами и матрицами.
Сейчас я хотел бы понять , как вектор коэффициентов оценки & beta в множественной регрессии вычисляется.
Основное уравнение, кажется,
Теперь, как бы я решил для вектора здесь?
редактировать : Подожди, я застрял. Я здесь и не знаю, как продолжить
С для всехя являюсь перехват:
Можете ли вы указать мне правильное направление?
regression
Александр Энгельгардт
источник
источник
smallmatrix
, поэтому не пытались редактировать, так как обычное решение разбиения формулы в несколько строк здесь бы не сработало.Ответы:
У нас есть
Это можно показать, написав уравнение явно с компонентами. Например, напишите вместо β . Затем возьмите производные по β 1 , β 2 , ..., β p и сложите все, чтобы получить ответ. Для быстрой и простой иллюстрации вы можете начать с p = 2(β1,…,βp)′ β β1 β2 βp p=2 .
С опытом вырабатываете общие правила, некоторые из которых приведены, например, в этом документе. .
Изменить руководство по добавленной части вопроса
При имеемp=2
Производная по имеет видβ1
Аналогично, производная по имеет видβ2
Следовательно, производная по имеет видβ=(β1,β2)′
Теперь обратите внимание, что вы можете переписать последнее выражение как
Конечно, все сделано таким же образом для большего .p
источник
Вы также можете использовать формулы из поваренной книги Matrix . У нас есть
Теперь возьмите производные каждого термина. Вы можете заметить, что . Производная от термина у ' у относительно р равен нулю. Оставшийся срокβ′X′y=y′Xβ y′y β
имеет форму функции
в формуле (88) в книге на стр. 11, где , A = X ′ X и b = - 2 X ′ y . Производная дается в формуле (89):x=β A=X′X b=−2X′y
так
Теперь, поскольку мы получаем желаемое решение:(X′X)′=X′X
источник
Вот методика минимизации суммы квадратов в регрессии, которая на самом деле имеет применение к более общим настройкам и которую я считаю полезной.
Попробуем вообще избежать векторно-матричного исчисления.
Предположим, что мы заинтересованы в минимизации Где у ∈ R п , X ∈ R п × р и & beta ; ∈ R р . Для простоты будем считать, что p ≤ n и r a n k ( X ) = p .
Для любого & beta ; ∈ R р , получим Е = ‖ у - Х & beta ; + Х & beta ; - Х & beta ; | | 2 2 = | | у - Х & beta ; | | 2 2 + | | Х ( & beta ; - & beta ; ) | | 2 2 - 2 ( β - β ) Т Х Т ( уβ^∈ Rп
Хотя это может показаться «уловкой», позволяющей избежать исчисления, на самом деле оно имеет более широкое применение и в игре присутствует интересная геометрия.
Один пример, где этот метод делает вывод намного проще, чем любой подход матрично-векторного исчисления, - это когда мы обобщаем на случай матрицы. ПозволятьY ∈ Rn × p , X ∈ Rn × q а также B ∈ RQ× р , Предположим, мы хотим минимизировать
Совершенно аналогичный подход к вышесказанному быстро устанавливает, что минимумЕ достигается путем принятия
источник
One way which may help you understand is to not use matrix algebra, and differentiate with each respect to each component, and then "store" the results in a column vector. So we have:
Now you havep of these equations, one for each beta. This is a simple application of the chain rule:
Now we can re-write the sum inside the bracket as∑pj=1Xijβj=xTiβ So you get:
Now we havep of these equations, and we will "stack them" in a column vector. Notice how Xik is the only term which depends on k , so we can stack this into the vector xi and we get:
Now we can take the beta outside the sum (but must stay on RHS of sum), and then take the invervse:
источник