Одномерный экспоненциальный процесс Хоукса - это саморегулирующийся точечный процесс со скоростью поступления событий: λ(t)=μ+∑ti<tαe−β(t−ti)λ(t)=μ+∑ti<tαe−β(t−ti) \lambda(t) = \mu +...
Одномерный экспоненциальный процесс Хоукса - это саморегулирующийся точечный процесс со скоростью поступления событий: λ(t)=μ+∑ti<tαe−β(t−ti)λ(t)=μ+∑ti<tαe−β(t−ti) \lambda(t) = \mu +...
Оценка параметров с использованием оценки максимального правдоподобия (MLE) включает в себя оценку функции правдоподобия, которая отображает вероятность появления выборки (X) в значения (x) в пространстве параметров (θ) при заданном семействе распределения (P (X = x | θ). ) по возможным значениям θ...
Приближенное байесовское вычисление - это действительно классный метод для подгонки практически любой стохастической модели, предназначенный для моделей, в которых вероятность трудно поддается оценке (скажем, вы можете выбрать образец из модели, если вы исправите параметры, но вы не можете...
Меня смущает метод максимального правдоподобия по сравнению, например, с вычислением среднего арифметического. Когда и почему максимальное правдоподобие дает «лучшие» оценки, чем, например, среднее арифметическое? Как это...
Я пытаюсь доказать, что наблюдаемая информационная матрица, оцененная по слабо непротиворечивой оценке максимального правдоподобия (MLE), является слабо непротиворечивой оценкой ожидаемой информационной матрицы. Это широко цитируемый результат, но никто не дает ссылку или доказательство (я...
Каковы преимущества и недостатки обоих
Я пытаюсь воспроизвести optimрезультаты простой линейной регрессии, снабженной glmили даже nlsR-функциями. Оценки параметров одинаковы, но оценка остаточной дисперсии и стандартные ошибки других параметров не одинаковы, особенно при небольшом размере выборки. Я полагаю, что это из-за различий в...
Различные описания по выбору модели на случайные эффекты линейных смешанных моделей инструктируют использовать REML. Я знаю разницу между REML и ML на некотором уровне, но я не понимаю, почему REML следует использовать, потому что ML смещен. Например, неправильно ли проводить LRT для параметра...
Каково частое восприятие истории вольтметра и ее вариаций? Идея заключается в том, что статистический анализ, который обращается к гипотетическим событиям, должен быть пересмотрен, если позднее станет известно, что эти гипотетические события не могли произойти, как предполагалось. Версия истории в...
Джеффри Вулдридж в своем эконометрическом анализе данных поперечного сечения и панелей (стр. 357) говорит, что эмпирический гессиан «не гарантированно будет положительно определенным или даже положительно полуопределенным для конкретного образца, с которым мы работаем». Это кажется мне...
Общий вопрос Скажем, у нас есть потоковые данные , , ... . Мы хотим рекурсивно вычислить оценку максимального правдоподобия \ boldsymbol {\ theta} . То есть, вычислив \ hat {\ boldsymbol {\ theta}} _ {n-1} = \ underset {\ boldsymbol {\ theta} \ in \ mathbb {R} ^ p} {\ arg \ max} \ prod_ { i = 1} ^...
Для данной проблемы вывода мы знаем, что байесовский подход обычно отличается как по форме, так и по результатам феечистского подхода. Частые участники (обычно это я) часто указывают на то, что их методы не требуют предварительного и, следовательно, в большей степени «основаны на данных», чем...
Феномен «чрезмерной дисперсии» в GLM возникает всякий раз, когда мы используем модель, которая ограничивает дисперсию переменной отклика, и данные демонстрируют большую дисперсию, чем позволяет ограничение модели. Это обычно происходит при моделировании данных подсчета с использованием Poisson GLM,...
Пусть θ будет оценка максимального правдоподобия истинного параметра некоторой модели. По мере увеличения числа точек данных ошибка обычно уменьшается как O (1 / \ sqrt n) . Используя неравенство треугольника и свойства ожидания, можно показать, что этот коэффициент ошибок подразумевает, что оба...
Кажется, существует большая путаница при сравнении использования glmnetвнутри caretдля поиска оптимальной лямбды и использования cv.glmnetдля выполнения той же задачи. Было задано много вопросов, например: Модель классификации train.glmnet против cv.glmnet? Как правильно использовать glmnet с...
Этот вопрос вытекает из вопроса: когда (если вообще когда-либо) частотный подход существенно лучше, чем байесовский? Как я уже писал в своем решении этого вопроса, по моему мнению, если вы являетесь частым участником, вам не нужно верить / придерживаться принципа вероятности, так как часто методы,...
В первой главе книги « Алгебраическая геометрия и теория статистического обучения», в которой говорится о сходимости оценок в разных функциональных пространствах, упоминается, что байесовская оценка соответствует топологии распределения Шварца, тогда как оценка максимального правдоподобия...
Этот вопрос касается оценки ограниченного максимального правдоподобия (REML) в конкретной версии линейной модели, а именно: Y= Х( α ) β+ ϵ ,ε ~ NN( 0 , Σ ( α ) ) ,Yзнак равноИкс(α)β+ε,ε~NN(0,Σ(α)), Y = X(\alpha)\beta + \epsilon, \\ \epsilon\sim N_n(0, \Sigma(\alpha)), где - ( ) матрица,...
Мне интересно, использовалась ли когда-либо максимальная оценка правдоподобия в статистике. Мы изучаем понятие этого, но мне интересно, когда это фактически используется. Если мы предположим распределение данных, мы найдем два параметра, один для среднего значения и один для дисперсии, но...
MLE = оценка максимального правдоподобия MAP = максимум апостериорный MLE интуитивно понятен / наивен в том смысле, что он начинается только с вероятности наблюдения с учетом параметра (то есть функции правдоподобия) и пытается найти параметр, наилучшим образом соответствующий наблюдению . Но это...