Мне интересно, использовалась ли когда-либо максимальная оценка правдоподобия в статистике. Мы изучаем понятие этого, но мне интересно, когда это фактически используется. Если мы предположим распределение данных, мы найдем два параметра, один для среднего значения и один для дисперсии, но действительно ли вы используете его в реальных ситуациях?
Может кто-нибудь сказать мне простой случай, в котором он используется?
estimation
maximum-likelihood
user122358
источник
источник
Ответы:
Конечно! На самом деле довольно много, но не всегда.
Когда у людей есть параметрическая модель распределения, они довольно часто предпочитают использовать оценку максимального правдоподобия. Когда модель верна, существует ряд полезных свойств оценки максимального правдоподобия.
Для одного примера - использование обобщенных линейных моделей довольно широко распространено, и в этом случае параметры, описывающие среднее значение, оцениваются по максимальной вероятности.
Может случиться так, что некоторые параметры оцениваются по максимальной вероятности, а другие нет. Например, рассмотрим избыточную дисперсию Пуассона GLM - параметр дисперсии не будет оцениваться по максимальной вероятности, поскольку MLE в этом случае бесполезен.
Ну, иногда у вас может быть два, но иногда у вас есть один параметр, иногда три или четыре или больше.
Возможно, вы думаете о конкретной модели? Это не всегда так. Рассмотрим оценку параметра экспоненциального распределения, распределения Пуассона или биномиального распределения. В каждом из этих случаев есть один параметр, и дисперсия является функцией параметра, который описывает среднее значение.
Или рассмотрим обобщенное гамма-распределение , которое имеет три параметра. Или бета-распределение с четырьмя параметрами , которое имеет (возможно неудивительно) четыре параметра. Отметим также, что (в зависимости от конкретной параметризации) среднее или дисперсия, или оба могут быть представлены не одним параметром, а функциями нескольких из них.
Например, гамма-распределение, для которого есть три параметризации, которые встречаются довольно часто, и два наиболее распространенных из которых имеют как среднее значение, так и дисперсию, являющиеся функциями двух параметров.
Обычно в регрессионной модели, GLM или модели выживания (среди многих других типов моделей) модель может зависеть от нескольких предикторов, и в этом случае распределение, связанное с каждым наблюдением в рамках модели, может иметь один из своих собственных параметров (или даже несколько параметров), которые связаны со многими переменными предиктора («независимые переменные»).
источник
Хотя оценки максимального правдоподобия могут выглядеть подозрительно, учитывая предположения о распределении данных, часто используются квази-оценки максимального правдоподобия. Идея состоит в том, чтобы начать с предположения о распределении и решить для MLE, затем удалить явное предположение о распределении и вместо этого посмотреть, как ваша оценка работает в более общих условиях. Таким образом, Quasi MLE просто становится разумным способом получения оценки, и большая часть работы затем выводит свойства оценки. Поскольку допущения о распределении отбрасываются, квази-MLE обычно не обладает хорошими характеристиками эффективности.
источник
Оценка максимального правдоподобия часто используется в машинном обучении для обучения:
Обратите внимание, что в некоторых случаях предпочитают добавить некоторую регуляризацию, которая иногда эквивалентна максимальной апостериорной оценке , например, почему штраф Лассо эквивалентен двойной экспоненте (Лапласу) до? ,
источник
Очень типичный случай - логистическая регрессия. Логистическая регрессия - это метод, часто используемый в машинном обучении для классификации точек данных. Например, логистическая регрессия может использоваться для классификации того, является ли электронная почта спамом или не является спамом, или для классификации того, имеет ли человек заболевание или нет.
источник
Мы все время используем MLE, но можем этого не чувствовать. Я приведу два простых примера, чтобы показать.
Пример 1
Зачем использовать подсчет? это на самом деле неявно с помощью MLE! Где проблема
Чтобы решить уравнение, нам понадобится некоторое исчисление, но вывод подсчитывается.
Пример 2
Как бы мы оценили параметры распределения Гаусса по данным? Мы используем эмпирическое среднее в качестве оценочного среднего, а эмпирическое отклонение - в качестве оценочного отклонения, которое также исходит из MLE !.
источник
Некоторые максимальные вероятности использования в беспроводной связи:
источник