Фон:
Я пытаюсь следовать обзору Принстона оценки MLE для GLM .
Я понимаю основы оценки MLE: likelihood
, score
, наблюдаемая и ожидаемая Fisher information
и Fisher scoring
техника. И я знаю, как обосновать простую линейную регрессию с помощью оценки MLE .
Вопрос:
Я не могу понять даже первую строку этого метода :(
Что такое интуиция за рабочими переменными определенными как:
Почему они используются вместо для оценки ?
И как они связаны с тем, response/link function
что есть связь между и
Если кто-то имеет простое объяснение или может направить меня к более базовому тексту об этом, я был бы благодарен.
Ответы:
Несколько лет назад я написал статью об этом для моих студентов (на испанском языке), поэтому я могу попытаться переписать эти объяснения здесь. Я посмотрю на IRLS (итеративно переоцененные наименьшие квадраты) через серию примеров возрастающей сложности. Для первого примера нам нужна концепция семейства масштабов местоположения. Пусть - функция плотности с центром в нуле в некотором смысле. Мы можем построить семейство плотностей, определив f ( x ) = f ( x ; µ , σ ) = 1е0
гдеσ>0- параметр масштаба, аμ- параметр местоположения. В модели ошибки измерения, где обычно термин ошибки моделируется как нормальное распределение, мы можем вместо этого нормального распределения использовать семейство масштабов местоположения, как построено выше. Когдаf0является стандартным нормальным распределением, приведенная выше конструкция дает семействоN(μ,σ).
Теперь мы будем использовать IRLS на нескольких простых примерах. Сначала мы найдем оценки ML (максимальное правдоподобие) в модели с плотностью f ( y ) = 1
Далее мы дадим числовой пример, используя R, для двойной экспоненциальной модели (с известным масштабом) и с данными
y <- c(-5,-1,0,1,5)
. Для этих данных истинное значение оценщика ML равно 0. Начальное значение будетmu <- 0.5
. Один проход алгоритмас помощью этой функции вы можете поэкспериментировать с выполнением итераций «вручную». Затем итерационный алгоритм может быть выполнен
На данный момент я оставлю это здесь, я продолжу этот пост.
источник