Я читаю комментарий к статье, и автор заявляет, что иногда, даже если оценки (найденные по ОД или максимальному квазиликтуализму) могут быть непоследовательными, сила отношения правдоподобия или теста отношения квази-правдоподобия все еще может сходиться к 1, поскольку число наблюдаемых данных стремится к бесконечности (непротиворечивость теста). Как и когда это происходит? Вы знаете какую-нибудь библиографию?
mathematical-statistics
references
inference
power
consistency
Старик в море.
источник
источник
Ответы:
[Я думаю, что это может быть примером ситуации, обсуждаемой в вашем вопросе.]
Есть многочисленные примеры противоречивых оценок ML. Несоответствие обычно наблюдается с рядом слегка усложненных проблем со смешиванием и проблем с цензурой.
[Непротиворечивость теста в основном заключается только в том, что мощность теста для (фиксированной) ложной гипотезы увеличивается до единицы как .]n→∞
Рэдфорд Нил приводит пример в своей записи в блоге 2008-08-09 « Непоследовательная оценка максимального правдоподобия:« обычный »пример» . Это предполагает оценку параметра в:θ
(Нил использует там, где у меня есть ), где оценка ML для будет стремиться к как (и действительно, вероятность может быть намного выше в пике около 0, чем при истинном значении для довольно скромной выборки) размеры). Тем не менее это тот случай, когда есть вершина около истинного значения , она просто меньше, чем около 0.θ θ 0 n → ∞ θt θ θ 0 n→∞ θ
Представьте теперь два случая, относящихся к этой ситуации:
a) выполнение теста отношения правдоподобия против альтернативного ;H 1 : θ < θ 0H0:θ=θ0 H1:θ<θ0
б) выполнение теста отношения правдоподобия против альтернативного .H 1 : θ ≠ θ 0H0:θ=θ0 H1:θ≠θ0
В случае (a) представьте, что истина (так что альтернатива истинна, а - это другая сторона истинной ). Тогда, несмотря на то, что вероятность, очень близкая к 0, превысит вероятность в , вероятность в тем не менее, превышает вероятность в даже в небольших выборках, и отношение будет продолжать расти с ростом , таким образом, чтобы вероятность отклонения в тесте отношения правдоподобия была равна 1. 0 θ θ θ θ 0 n → ∞θ<θ0 0 θ θ θ θ0 n→∞
Действительно, даже в случае (b), пока является фиксированным и ограниченным от , также должен быть случай, когда отношение правдоподобия будет расти таким образом, чтобы сделать вероятность отклонения в тесте отношения правдоподобия также подход 1. 0θ0 0
Так что это может показаться примером противоречивой оценки ML, где мощность LRT должна, тем не менее, перейти к 1 (кроме случаев, когда ).θ0=0
[Обратите внимание, что в этом нет ничего такого, чего бы не было в ответе Уубера, который, я думаю, является примером ясности и намного проще для понимания разницы между последовательностью теста и непротиворечивостью оценки. Тот факт, что противоречивая оценка в конкретном примере не была ML, на самом деле не имеет значения, поскольку понимание этой разницы - и привнесение противоречивой оценки, которая является конкретно ML - как я пытался сделать здесь, - на самом деле не меняет объяснение любым существенным способом. Единственный реальный смысл приведенного здесь примера состоит в том, что я думаю, что он решает вашу проблему с использованием оценщика ML.]
источник
Пусть получено из нормального распределения. Рассмотрим оценку(Xn) (μ,1)
Распределение является нормальным . Это сходится к , показывая, что это противоречиво.T(X1,…,Xn)=1+X¯ (μ+1,1/n−−√) μ+1≠μ
Сравнивая нулевую гипотезу к простой альтернативе, скажем , отношение правдоподобия журнала будет точно таким же , как на основе LLR вместо . (По сути, полезен для сравнения нулевой гипотезы с альтернативной гипотезой ) Поскольку тест на основе среднего имеет мощность, сходящуюся к для любого test size и любой размер эффекта, мощность теста с использованием самого также сходится к .μ=μ0 μ=μA X¯ T T μ+1=μ0+1 μ+1=μA+1 1 α>0 T 1
источник