Оценка максимального правдоподобия для отрицательного биномиального распределения

11

Вопрос в следующем:

Случайная выборка из n значений собирается из отрицательного биномиального распределения с параметром k = 3.

  1. Найти оценку максимального правдоподобия параметра π.
  2. Найти асимптотическую формулу для стандартной ошибки этой оценки.
  3. Объясните, почему отрицательное биномиальное распределение будет приблизительно нормальным, если параметр k достаточно велик. Каковы параметры этого нормального приближения?

Моя работа заключалась в следующем:
1. Я чувствую, что это то, что нужно, но я не уверен, что я здесь прав, или могу ли я пойти дальше, учитывая предоставленную информацию?

p(x)=(x1k1)πk(1π)xkL(π)=Πinp(xn|π)(π)=Σinln(p(xn|π))(π)=Σinkπ(xk)(1π)
  1. Я думаю, что следующее - то, о чем просят. В заключительной части я чувствую, что мне нужно заменить π^ на kx

    (π^)=kπ^2+x(1π^)2se(π^)=1(π^)se(π^)=π^2k(1π^)2x
  2. Я не совсем уверен, как доказать это, и все еще исследую это. Любые советы или полезные ссылки будут с благодарностью. Я чувствую, что это связано либо с тем фактом, что отрицательное биномиальное распределение можно рассматривать как совокупность геометрических распределений, либо с инверсией биномиального распределения, но не знаю, как к нему подойти.

Любая помощь будет принята с благодарностью

Syzorr
источник
(1) Чтобы найти оценку максимального правдоподобия вам нужно найти, где функция логарифмического правдоподобия достигает своего максимума. Вычисление оценки (первая производная логарифмической функции правдоподобия по отношению к ) является началом - какое значение это примет в максимуме? (И помните, вам не нужно оценивать .)π^πk
Scortchi - Восстановить Монику
Я забыл добавить производную логарифмического правдоподобия = 0 с целью выяснения максимума. Если я понял это правильно (работал над этим еще с момента публикации), то у меня естьkπΣi=0n(xik)(1π)=0
Сызорр,
Будьте осторожны:Также обратите внимание, чтоi=1nkπi=1n(xik)(1π)= ?i
начинаю с
В (2) редко бывает, чтобы обратная разница была разностью обратных величин. Эта ошибка сильно влияет на вашу окончательную формулу для . se(π^)
whuber

Ответы:

6

1.

p(x)=(xi1k1)πk(1π)xik

L(π;xi)=i=1n(xi1k1)πk(1π)xik

(π;xi)=i=1n[log(xi1k1)+klog(π)+(xik)log(1π)]d(π;xi)dπ=i=1n[kπ(xik)(1π)]

Установите это в ноль,

nkπ=i=1nxink1π

π^=nki=1nx

    2.

Для второй части вам нужно использовать теорему, что , является информацией рыболова здесь. Следовательно, стандартное отклонение будет . Или вы называете это стандартной ошибкой, так как вы используете CLT здесь.n(θ^θ)DN(0,1I(θ))I(θ)θ^[nI(θ)]1/2

Поэтому нам нужно вычислить информацию Фишера для отрицательного биномиального распределения.

2log(P(x;π))π2=kπ2xk(1π)2

I(θ)=E(kπ2xk(1π)2)=kπ2+k(1π)(1π)2π

Примечание: для отрицательного бинома pmfE(x)=kπ

Поэтому стандартной ошибкой для являетсяπ^[n(kπ2+k(1π)(1π)2π)]1/2

Проще говоря, мы получаемse(π)=π2(π1)kn

    3.

Геометрическое распределение является частным случаем отрицательного биномиального распределения, когда k = 1. Примечание является геометрическим распределениемπ(1π)x1

Следовательно, отрицательная биномиальная переменная может быть записана как сумма k независимых одинаково распределенных (геометрических) случайных величин.

Таким образом, по CLT отрицательное биномиальное распределение будет примерно нормальным, если параметр k достаточно велик

Глубокий Север
источник
1
Пожалуйста, прочитайте, какие темы я могу задать здесь? по вопросам самообучения: вместо того, чтобы делать домашнее задание для людей, мы стараемся помочь им сделать это самим.
Scortchi - Восстановить Монику
2
Вы действительно должны рассмотреть размер выборки при вычислении ОМП. Возможно, вы путаете учет независимых наблюдений, каждый из которых нет. испытаний, необходимых для достижения отказов ( ) с учетом одного наблюдения нет. испытаний, необходимых для достижения неудач ( ). Первый дает вероятность ; последний, . nnkx1,x2,,xnkni=1nπ(1π)xikπk(1π)nk
Scortchi - Восстановить Монику
1
Вы правы, я всегда сбиваю с толку в этой части. Большое спасибо. Я также задаю много вопросов на этой доске, но я действительно надеюсь, что люди могут дать мне очень подробный ответ, тогда я смогу изучить его самостоятельно, шаг за шагом.
Глубокий север
Да. Я понимаю, почему правило против предоставления слишком большого количества деталей, но этот ответ в сочетании с моими собственными заметками из лекции позволили мне связать воедино множество свободных концов. Я собираюсь пойти и поговорить с моим лектором сегодня об этом, чтобы я мог получить от него разъяснения. Здесь пятница сейчас. Назначение в понедельник, как указано выше. Мы узнали об этом в среду, и у нас есть только один пример с использованием биномиального распределения. Большое спасибо за детали.
Сызорр,
В вашей работе есть некоторые недостатки, потому что я (θ) = E [] не -E [] (что сбивало меня с толку, пока я не начал искать уравнения, которые вы использовали) В конечном итоге получилось сse(π)=π2(π1)kn
Сызорр,