В настройках одномерной регрессии мы пытаемся моделировать
где вектор из наблюдений, а матрица проектирования с предикторами. Решение: . n X ∈ R n × m m β 0 = ( X T X ) - 1 X y
В настройках многомерной регрессии мы пытаемся моделировать
где - это матрица из наблюдений и различных скрытых переменных. Решение: . n p β 0 = ( X T X ) - 1 X Y
Мой вопрос: как это отличается от выполнения другой одномерной линейной регрессии? Я читал здесь, что в последнем случае мы принимаем во внимание корреляцию между зависимыми переменными, но я не вижу этого по математике.
Ответы:
В настройках классической многомерной линейной регрессии мы имеем модель:
где представляет независимые переменные, представляет множественные переменные отклика, а - это термин iid гауссовского шума. Шум имеет нулевое среднее значение и может быть коррелирован по переменным отклика. Максимальное правдоподобное решение для весов эквивалентно решению для наименьших квадратов (независимо от шумовых корреляций) [1] [2]:Икс Y ε
Это эквивалентно независимому решению отдельной задачи регрессии для каждой переменной ответа. Это видно из того факта, что й столбец (содержащий веса для й выходной переменной) можно получить умножением на столбец (содержит значения переменной ответа ).я β^ я ( ХTИкс)- 1ИксT я Y я
Однако многомерная линейная регрессия отличается от отдельного решения отдельных задач регрессии, поскольку процедуры статистического вывода учитывают корреляции между переменными множественного отклика (например, см. [2], [3], [4]). Например, ковариационная матрица шума отображается в распределениях выборки, статистике испытаний и оценках интервалов.
Другое различие возникает, если мы разрешаем каждой переменной ответа иметь свой собственный набор ковариат:
где представляет ую переменную ответа, а и представляют соответствующий ей набор ковариат и шумового члена. Как указано выше, условия шума могут коррелироваться между переменными отклика. В этом параметре существуют оценщики, которые более эффективны, чем метод наименьших квадратов, и их нельзя сводить к решению отдельных задач регрессии для каждой переменной отклика. Например, см. [1].Yя я Икся εя
использованная литература
источник