Вопрос
Дисперсия отрицательного биномиального (NB) распределения всегда больше его среднего значения. Когда среднее значение выборки превышает ее дисперсию, попытка подобрать параметры NB с максимальной вероятностью или с оценкой момента не удастся (решения с конечными параметрами не существует).
Однако возможно, что выборка, взятая из распределения NB, имеет среднее значение, превышающее дисперсию. Вот воспроизводимый пример в R.
set.seed(167)
x = rnbinom(100, size=3.2, prob=.8);
mean(x) # 0.82
var(x) # 0.8157576
Существует ненулевая вероятность того, что NB произведет выборку, для которой параметры не могут быть оценены (методами максимального правдоподобия и момента).
- Можно ли дать достойные оценки для этого образца?
- Что говорит теория оценки, когда оценки не определены для всех выборок?
Об ответе
Ответы @MarkRobinson и @Yves заставили меня понять, что параметризация является главной проблемой. Плотность вероятности НБ обычно записывается как
или как P(X=k)=Γ(r+k)
При первой параметризации оценка максимального правдоподобия равна всякий раз, когда дисперсия выборки меньше среднего, поэтому ничего полезного нельзя сказать о p . Под вторым это ( ∞ , ˉ x ) , поэтому мы можем дать разумную оценку m . Наконец, @MarkRobinson показывает, что мы можем решить проблему бесконечных значений, используя r вместор.
В заключение, в этой проблеме оценки нет ничего принципиально неправильного, за исключением того, что вы не всегда можете дать значимые интерпретации и p для каждой выборки. Честно говоря, идеи присутствуют в обоих ответах. Я выбрал @MarkRobinson как правильный для дополнений, которые он дает.
Ответы:
По сути, для вашего примера оценка параметра размера находится на границе пространства параметров. Можно также рассмотреть вопрос о репараметризации, такой как d = размер / (размер + 1); когда размер = 0, d = 0, когда размер стремится к бесконечности, d приближается к 1. Оказывается, что для заданных вами параметров настройки оценки размера бесконечности (d, близкие к 1) происходят примерно в 13% времени для Оценки скорректированного профиля (APL) Кокса-Рейда, которые являются альтернативой оценкам MLE для NB (пример показан здесь) . Оценки среднего параметра (или «вероятности»), кажется, в порядке (см. Рисунок, синие линии - истинные значения, красная точка - оценка для вашего семени = 167 выборок). Более подробная информация о теории APL здесь .
Итак, я бы сказал, что 1 .: Оценки приличного параметра могут быть получены .. размер = бесконечность или дисперсия = 0 является разумной оценкой, учитывая выборку. Рассмотрим другое пространство параметров, и оценки будут конечными.
источник
Свойства ML предназначены для большого размера выборки: в условиях регулярности показано, что оценка ML существует, является уникальной и имеет тенденцию к истинному параметру. Тем не менее, для данного конечного размера выборки оценка ML может не существовать в области, например, потому что максимум достигнут на границе. Он также может существовать в домене, который больше, чем тот, который используется для максимизации.
Ради инвариантности путем повторной параметризации, я считаю, что бесконечные параметры могут иметь смысл в некоторых случаях.
источник