Вычисление стандартных ошибок для задач линейной регрессии без вычисления обратного

11

Существует ли более быстрый способ вычисления стандартных ошибок для задач линейной регрессии, чем путем инвертирования ? Здесь я предполагаю, что у нас есть регрессия:XX

y=Xβ+ε,

где - матрица n × k, а y - вектор n × 1 .Xn×kyn×1

Для нахождения решения задачи наименьших квадратов нецелесообразно что-либо делать с , вы можете использовать разложения QR или SVD на матрицу X напрямую. Или же вы можете использовать градиентные методы. Но как насчет стандартных ошибок? Нам действительно нужна только диагональ ( X X ) - 1 (и, естественно, решение LS для вычисления оценки стандартной ошибки ε ). Существуют ли какие-либо конкретные методы для расчета стандартных ошибок?XXX(XX)1ε

mpiktas
источник

Ответы:

5

Предположим, что вы решили проблему наименьших квадратов, используя разложение по сингулярным числам (SVD) для , определяемое какX

X=UΣV,

где и V унитарные, а Σ диагональные.UVΣ

потом

XX=VΣ2V.

(XX)1X

(XX)1=VΣ2V.

(См. Ответ, который я дал на связанный вопрос на Math.SE. )

ΣV(XX)1nn×nn2O(n3)

XXX

Джефф Оксберри
источник
+1, я забыл об этой прекрасной собственности SVD. Если других ответов не будет, я приму этот ответ, так как он довольно близок к тому, который я хотел получить (и, конечно, величины лучше, чем тот, который я ожидал получить :))
mpiktas
(XX)1O(n2)X
(XX)1
Σ
Проигнорируйте последний комментарий, там есть ошибка. Я получил правильную формулу, хотя.
mpiktas