Хасти и Тибширани упоминают в разделе 4.3.2 своей книги, что в случае линейной регрессии подход наименьших квадратов фактически является частным случаем максимальной вероятности. Как мы можем доказать этот результат?
PS: не жалейте математических деталей.
regression
maximum-likelihood
least-squares
Прадные Джоши
источник
источник
Ответы:
Модель линейной регрессии
Обратите внимание, что наша ошибка модели (остаточная) равна . Наша цель - найти вектор s, который минимизирует квадрат нормы этой ошибки.ϵ=Y−Xβ β L2
Наименьших квадратов
Учитывая данные где каждый является мерным, мы стремимся найти:(x1,y1),...,(xn,yn) xi p
Максимальная вероятность
Используя вышеприведенную модель, мы можем настроить вероятность данных с учетом параметров как:β
где - это pdf нормального распределения со средним 0 и дисперсией . Подключить его:f(yi|xi,β) σ2
Теперь, как правило, когда дело касается вероятностей, математически легче взять журнал перед продолжением (продукты становятся суммами, экспоненты уходят), так что давайте сделаем это.
Поскольку нам нужна оценка максимального правдоподобия, мы хотим найти максимум уравнения, приведенного выше, относительно . Первый член не влияет на нашу оценку , поэтому мы можем его игнорировать:ββ β
Обратите внимание, что знаменатель является константой относительно . Наконец, обратите внимание, что перед суммой стоит отрицательный знак. Таким образом, найти максимум отрицательного числа - это все равно, что найти его минимум без отрицательного числа. Другими словами:β
Напомним, что для того, чтобы это работало, мы должны были сделать определенные допущения модели (нормальность слагаемых ошибок, среднее значение 0, постоянная дисперсия). Это делает наименьшие квадраты эквивалентными MLE при определенных условиях. Смотрите здесь и здесь для дальнейшего обсуждения.
Для полноты заметим, что решение можно записать так:
источник