Примечание: я отправляю вопрос от моего бывшего студента, который не может публиковать сообщения самостоятельно по техническим причинам.
Для данного iid образца из распределения Вейбулла pdf
есть ли полезное представление отсутствующей переменной
и, следовательно, связанный с ним алгоритм EM (ожидание-максимизация), который можно использовать для нахождения MLE из вместо простой численной оптимизации?
Ответы:
Я думаю, что ответ - да, если я правильно понял вопрос.
Напишите . Тогда ЭМ типа алгоритм итерации, начиная с, например , к = 1 , являетсяZя= хКя К^= 1
ЕZ^я= хК^я
МК^= n[ ∑( z^я- 1 ) журналИкся]
Это особый случай (случай без цензуры и ковариат) итерации, предложенной для моделей пропорционального риска Вейбулла Эйткином и Клейтоном (1980). Это также можно найти в разделе 6.11 Aitkin et al (1989).
Aitkin, M. and Clayton, D., 1980. Подгонка экспоненциального распределения, распределения Вейбулла и экстремальных значений к сложным цензурированным данным о выживании с использованием GLIM. Прикладная статистика , с.156-163.
Айткин М., Андерсон Д., Фрэнсис Б. и Хинде Дж., 1989. Статистическое моделирование в GLIM . Издательство Оксфордского университета. Нью-Йорк.
источник
Вейбулла MLE только численно разрешима:
Пусть сβ,
1) Likelihoodfunction :
лог-Likelihoodfunction :
2) MLE-проблема :
Pluggingλ∗ into the second 0-gradient condition:
This equation is only numerically solvable, e.g. Newton-Raphson algorithm.β^∗ can then be placed into λ∗ to complete the ML estimator for the Weibull distribution.
источник
Хотя это старый вопрос, похоже, что в опубликованной здесь статье есть ответ: http://home.iitk.ac.in/~kundu/interval-censoring-REVISED-2.pdf
источник
In this case the MLE and EM estimators are equivalent, since the MLE estimator is actually just a special case of the EM estimator. (I am assuming a frequentist framework in my answer; this isn't true for EM in a Bayesian context in which we're talking about MAP's). Since there is no missing data (just an unknown parameter), the E step simply returns the log likelihood, regardless of your choice ofk(t) . The M step then maximizes the log likelihood, yielding the MLE.
EM would be applicable, for example, if you had observed data from a mixture of two Weibull distributions with parametersk1 and k2 , but you didn't know which of these two distributions each observation came from.
источник