Этот вопрос вдохновлен долгим обсуждением в комментариях здесь: Как линейная регрессия использует нормальное распределение?
В обычной модели линейной регрессии для простоты здесь написано только с одним предиктором:
где - известные константы, а - члены с независимой ошибкой с нулевым средним. Если дополнительно допустить нормальное распределение ошибок, то обычные оценки наименьших квадратов и оценки максимального правдоподобия идентичны.
Поэтому мой простой вопрос: существует ли какое-либо другое распределение для членов ошибки, такое, что mle совпадает с обычным оценщиком наименьших квадратов? Одно следствие легко показать, другое нет.
regression
normal-distribution
mathematical-statistics
maximum-likelihood
least-squares
Къетил б Халворсен
источник
источник
Ответы:
При оценке максимального правдоподобия мы рассчитываем
последнее соотношение с учетом линейной структуры уравнения регрессии.
Для сравнения, оценка МНК удовлетворяет
Чтобы получить идентичные алгебраические выражения для коэффициентов наклона, нам нужно иметь плотность для члена ошибки, такую, чтобы
Это дифференциальные уравнения вида которых есть решенияy′=±xy
Любая функция, которая имеет это ядро и интегрируется в единицу по соответствующей области, сделает MLE и OLS для коэффициентов наклона идентичными. А именно мы ищем
Существует ли такой который не является нормальной плотностью (или полунормальной, или производной функции ошибки)?g
Конечно. Но еще одна вещь, которую нужно учитывать, заключается в следующем: если использовать показатель плюс в показателе степени и симметричную опору, например, около нуля, получится плотность, которая имеет уникальный минимум в середине, и два локальных максимума при Границы поддержки.
источник
Another setting where both estimators coincide is when the data comes from a spherically symmetric distribution, namely when the (vector) datay has conditional density
источник
I didn't know about this question until @Xi'an just updated with an answer. There is a more generic solution. Exponential family distributions with some parameters fixed yield to Bregman divergences. For such distributions mean is the minimizer. OLS minimizer is also the mean. Therefore for all such distributions they should coincide when the linear functional is linked to the mean parameter.
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.75.6958&rep=rep1&type=pdf
источник