Вопросы с тегом «likelihood»

16
MLE требует данных iid? Или просто независимые параметры?

Оценка параметров с использованием оценки максимального правдоподобия (MLE) включает в себя оценку функции правдоподобия, которая отображает вероятность появления выборки (X) в значения (x) в пространстве параметров (θ) при заданном семействе распределения (P (X = x | θ). ) по возможным значениям θ...

16
Что может быть примером действительно простой модели с невероятной вероятностью?

Приближенное байесовское вычисление - это действительно классный метод для подгонки практически любой стохастической модели, предназначенный для моделей, в которых вероятность трудно поддается оценке (скажем, вы можете выбрать образец из модели, если вы исправите параметры, но вы не можете...

16
Когда работает максимальная вероятность, а когда нет?

Меня смущает метод максимального правдоподобия по сравнению, например, с вычислением среднего арифметического. Когда и почему максимальное правдоподобие дает «лучшие» оценки, чем, например, среднее арифметическое? Как это...

16
Наблюдаемая информационная матрица является последовательной оценкой ожидаемой информационной матрицы?

Я пытаюсь доказать, что наблюдаемая информационная матрица, оцененная по слабо непротиворечивой оценке максимального правдоподобия (MLE), является слабо непротиворечивой оценкой ожидаемой информационной матрицы. Это широко цитируемый результат, но никто не дает ссылку или доказательство (я...

16
Разница остаточных стандартных ошибок между optim и glm

Я пытаюсь воспроизвести optimрезультаты простой линейной регрессии, снабженной glmили даже nlsR-функциями. Оценки параметров одинаковы, но оценка остаточной дисперсии и стандартные ошибки других параметров не одинаковы, особенно при небольшом размере выборки. Я полагаю, что это из-за различий в...

16
Почему нужно использовать REML (вместо ML) для выбора среди вложенных моделей var-covar?

Различные описания по выбору модели на случайные эффекты линейных смешанных моделей инструктируют использовать REML. Я знаю разницу между REML и ML на некотором уровне, но я не понимаю, почему REML следует использовать, потому что ML смещен. Например, неправильно ли проводить LRT для параметра...

15
Каково частое восприятие истории вольтметра?

Каково частое восприятие истории вольтметра и ее вариаций? Идея заключается в том, что статистический анализ, который обращается к гипотетическим событиям, должен быть пересмотрен, если позднее станет известно, что эти гипотетические события не могли произойти, как предполагалось. Версия истории в...

15
Может ли эмпирический гессиан М-оценки быть неопределенным?

Джеффри Вулдридж в своем эконометрическом анализе данных поперечного сечения и панелей (стр. 357) говорит, что эмпирический гессиан «не гарантированно будет положительно определенным или даже положительно полуопределенным для конкретного образца, с которым мы работаем». Это кажется мне...

15
Рекурсивное обновление MLE как нового потока наблюдений в

Общий вопрос Скажем, у нас есть потоковые данные , , ... . Мы хотим рекурсивно вычислить оценку максимального правдоподобия \ boldsymbol {\ theta} . То есть, вычислив \ hat {\ boldsymbol {\ theta}} _ {n-1} = \ underset {\ boldsymbol {\ theta} \ in \ mathbb {R} ^ p} {\ arg \ max} \ prod_ { i = 1} ^...

15
Являемся ли мы частыми лицами на самом деле просто неявными / невольными байесовцами?

Для данной проблемы вывода мы знаем, что байесовский подход обычно отличается как по форме, так и по результатам феечистского подхода. Частые участники (обычно это я) часто указывают на то, что их методы не требуют предварительного и, следовательно, в большей степени «основаны на данных», чем...

15
Являются ли тесты на избыточную дисперсию в GLM действительно * полезными *?

Феномен «чрезмерной дисперсии» в GLM возникает всякий раз, когда мы используем модель, которая ограничивает дисперсию переменной отклика, и данные демонстрируют большую дисперсию, чем позволяет ограничение модели. Это обычно происходит при моделировании данных подсчета с использованием Poisson GLM,...

14
Для каких моделей смещение MLE падает быстрее, чем дисперсия?

Пусть θ будет оценка максимального правдоподобия истинного параметра некоторой модели. По мере увеличения числа точек данных ошибка обычно уменьшается как O (1 / \ sqrt n) . Используя неравенство треугольника и свойства ожидания, можно показать, что этот коэффициент ошибок подразумевает, что оба...

14
Карет глмнет против cv.glmnet

Кажется, существует большая путаница при сравнении использования glmnetвнутри caretдля поиска оптимальной лямбды и использования cv.glmnetдля выполнения той же задачи. Было задано много вопросов, например: Модель классификации train.glmnet против cv.glmnet? Как правильно использовать glmnet с...

14
Нужно ли придерживаться принципа вероятности быть байесовским?

Этот вопрос вытекает из вопроса: когда (если вообще когда-либо) частотный подход существенно лучше, чем байесовский? Как я уже писал в своем решении этого вопроса, по моему мнению, если вы являетесь частым участником, вам не нужно верить / придерживаться принципа вероятности, так как часто методы,...

14
Почему мы должны обсуждать поведение конвергенции разных оценок в разных топологиях?

В первой главе книги « Алгебраическая геометрия и теория статистического обучения», в которой говорится о сходимости оценок в разных функциональных пространствах, упоминается, что байесовская оценка соответствует топологии распределения Шварца, тогда как оценка максимального правдоподобия...

14
Ограниченная максимальная вероятность с менее чем полным рангом столбца

Этот вопрос касается оценки ограниченного максимального правдоподобия (REML) в конкретной версии линейной модели, а именно: Y= Х( α ) β+ ϵ ,ε ~ NN( 0 , Σ ( α ) ) ,Yзнак равноИкс(α)β+ε,ε~NN(0,Σ(α)), Y = X(\alpha)\beta + \epsilon, \\ \epsilon\sim N_n(0, \Sigma(\alpha)), где - ( ) матрица,...

14
Используем ли мы когда-либо оценку максимального правдоподобия?

Мне интересно, использовалась ли когда-либо максимальная оценка правдоподобия в статистике. Мы изучаем понятие этого, но мне интересно, когда это фактически используется. Если мы предположим распределение данных, мы найдем два параметра, один для среднего значения и один для дисперсии, но...

14
MLE против MAP оценки, когда использовать какой?

MLE = оценка максимального правдоподобия MAP = максимум апостериорный MLE интуитивно понятен / наивен в том смысле, что он начинается только с вероятности наблюдения с учетом параметра (то есть функции правдоподобия) и пытается найти параметр, наилучшим образом соответствующий наблюдению . Но это...