Вопросы с тегом «likelihood»

9
ЭМ алгоритм Практика Задача

Это практическая проблема для промежуточного экзамена. Проблема в примере алгоритма EM. У меня проблемы с частью (е). Я перечисляю части (a) - (e) для завершения и в случае, если я допустил ошибку ранее. Пусть - независимые экспоненциальные случайные величины со скоростью . К сожалению, фактические...

9
Оценка параметров с помощью обобщенных линейных моделей

По умолчанию, когда мы используем glmфункцию в R, она использует метод итеративно перевешиваемых наименьших квадратов (IWLS), чтобы найти оценку максимального правдоподобия параметров. Теперь у меня есть два вопроса. Гарантируют ли оценки IWLS глобальный максимум функции правдоподобия? Основываясь...

9
Как рассчитать функцию правдоподобия

Срок службы трех электронных компонентов: и . Случайные величины были смоделированы как случайная выборка размера 3 из экспоненциального распределения с параметром . Функция правдоподобия, дляХ 3 = 2,1 & thetas ; & thetas ; > 0X1=3,X2=1.5,X1=3,X2=1.5,X_{1} = 3, X_{2} =...

9
ML оценка экспоненциального распределения (с цензурой данных)

В Survival Analysis вы предполагаете, что время выживания rv распределено экспоненциально. Учитывая теперь , что у меня есть х 1 , ... , х п «результаты» н.о.р. с.в. X я . Только некоторая часть этих результатов фактически «полностью реализована», то есть остальные наблюдения все еще...

9
Является ли байесовская оценка с «плоским априором» такой же, как оценка максимального правдоподобия?

В филогенетике филогенетические деревья часто строятся с использованием MLE или байесовского анализа. Часто в байесовской оценке используется плоский априор. Насколько я понимаю, байесовская оценка - это оценка вероятности, которая включает в себя предварительную оценку. Мой вопрос: если вы...

9
Сходимость по алгоритму EM с двумерным распределением смеси

У меня есть смешанная модель, в которой я хочу найти оценку максимального правдоподобия для данного набора данных и набора частично наблюдаемых данных . Я реализовал и E-шаг (вычисление ожидания учетом и текущих параметров ), и M-шаг, чтобы минимизировать отрицательное логарифмическое правдоподобие...

9
Почему коэффициенты линейной и логистической регрессии нельзя оценить одним и тем же методом?

В книге по машинному обучению я прочитал, что параметры линейной регрессии могут быть оценены (среди других методов) градиентным спуском, в то время как параметры логистической регрессии обычно оцениваются с помощью оценки максимального правдоподобия. Можно ли объяснить новичку (мне), почему нам...

9
Помощь в максимизации ожидания от бумаги: как включить предварительное распространение?

Вопрос основан на статье под названием «Восстановление изображений в диффузной оптической томографии с использованием связанной излучательной транспортно-диффузионной модели». Ссылка на скачивание Авторы применяют EM-алгоритм с разреженности неизвестного вектора \ mu для оценки пикселей...

9
Связь между MLE и наименьшими квадратами в случае линейной регрессии

Хасти и Тибширани упоминают в разделе 4.3.2 своей книги, что в случае линейной регрессии подход наименьших квадратов фактически является частным случаем максимальной вероятности. Как мы можем доказать этот результат? PS: не жалейте математических...

9
Как мне интерпретировать кривую выживания модели риска Кокса?

Как вы интерпретируете кривую выживания из модели пропорционального риска Кокса? В этом игрушечном примере предположим, что у нас есть модель пропорционального риска Кокса для ageпеременной в kidneyданных, и сгенерируем кривую выживания. library(survival) fit <- coxph(Surv(time, status)~age,...

9
P-значения и принцип правдоподобия

Этот вопрос возник в классе: если мы используем p-значения для оценки гипотез в эксперименте, какой части принципа правдоподобия мы не подчиняемся: достаточность или обусловленность ? Моя интуиция будет сказать Достаточность , поскольку вычисление значения р зависит от ненаблюдаемых результатов...

9
Является ли свойство инвариантности оценки ML бессмысленным с точки зрения Байеса?

Каселла и Бергер утверждают свойство инвариантности оценки ML следующим образом: Тем не менее, мне кажется, что они определяют «вероятность» совершенно случайным и бессмысленным образом:ηη\eta Если я применяю основные правила теории вероятностей к простому случаю, когда , я получаю следующее: L ( η...

9
Почему байесовский апостериор концентрируется вокруг минимизатора расхождения KL?

Рассмотрим Байеса задней . Асимптотически его максимум возникает при оценке MLE , которая просто максимизирует вероятность .θ∣Xθ∣X\theta\mid Xθ^θ^\hat \thetaargminθfθ(X)argminθfθ(X)\operatorname{argmin}_\theta\, f_\theta(X) Все эти концепции - байесовские априоры, максимизирующие вероятность -...