Метод максимального правдоподобия и метод наименьших квадратов

42

В чем основное различие между оценкой максимального правдоподобия (MLE) и оценкой наименьших квадратов (LSE)?

Почему мы не можем использовать MLE для прогнозирования значений в линейной регрессии и наоборот?y

Любая помощь по этой теме будет принята с благодарностью.

Эврос
источник
8
Вы можете использовать MLE в линейной регрессии, если хотите. Это может даже иметь смысл, если распределение ошибок не является нормальным и ваша цель - получить «наиболее вероятную» оценку, а не ту, которая минимизирует сумму квадратов.
Ричард Харди
16
При нормальном допущении ошибки, как это обычно предполагается в линейной регрессии, MLE и LSE одинаковы!
TrynnaDoStat,
1
Поищите на нашем сайте теорему Гаусса-Маркова .
whuber
Спасибо за все отклики. Теперь это имеет смысл. При поиске этой темы в сети я наткнулся на эту статью. Может быть, это также помогает: radfordneal.wordpress.com/2008/08/09/…
evros
1
Ответ также предоставляется по адресу stats.stackexchange.com/questions/12562/… .
whuber

Ответы:

19

Я хотел бы дать прямой ответ.

В чем основное различие между оценкой максимального правдоподобия (MLE) и оценкой наименьших квадратов (LSE)?

Как прокомментировал @TrynnaDoStat, минимизация квадратичной ошибки эквивалентна максимизации вероятности в этом случае. Как сказано в Википедии ,

В линейной модели, если ошибки принадлежат нормальному распределению, оценки наименьших квадратов также являются оценками максимального правдоподобия.

они могут рассматриваться как одинаковые в вашем случае,

y

Yi=λ1Xi+λ2+ϵi where ϵN(0,σ2)

введите описание изображения здесь
L(Y1,,Yn;λ1,λ2,σ2)=1(2π)n2σnexp(12σ2(i=1n(Yiλ1Xiλ2)2))
i=1n(Yiλ1Xiλ2)2

y

y

Лернер Чжан
источник
3
Возможно, вы захотите определить «этот случай» немного более четко, поскольку в целом максимальная вероятность и наименьшие квадраты - это не одно и то же.
Мэтью Ганн,
2
@MatthewGunn Да, я использовал "эквивалент" кроме "то же самое".
Лернер Чжан
Было бы здорово, если бы вы дали нам пример, где линейная модель следует за ненормальным распределением ошибок, и как вы используете MLE в таком случае для оценки наилучших коэффициентов. Если это невозможно, по крайней мере, вы можете указать нам правильный источник, который демонстрирует это с помощью линейных моделей, таких как регрессия Пуассона
VM_AI
12

L1L2

L2L2

  • отслеживание данных
  • стохастические параметры
  • слабые ограничения

Профессиональные приложения не просто соответствуют данным, они проверяют:

  • если параметр является значимым
  • если ваш набор данных имеет выбросы
  • какой выброс можно допустить, поскольку он не наносит вреда производительности
  • какое измерение следует убрать, так как оно не влияет на степень свободы

Также существует огромное количество специализированных статистических тестов для гипотез. Это не обязательно относится ко всем оценкам ОД или должно быть, по крайней мере, подтверждено доказательством.

L2

Xβ=L+r(XTX)1L2

Не стесняйтесь спрашивать подробности.

нал
источник