Классическая трактовка статистического вывода основывается на предположении, что существует правильно заданная статистическая информация. То есть распределение , сгенерировавшее наблюдаемые данные является частью статистической модели : Однако в большинстве случаев мы не можем предположить, что это действительно так. Интересно, что происходит с процедурами статистического вывода, если мы отбросим правильно заданное предположение.
Я нашел некоторые работы Белого 1982 года по оценкам ML при неправильной спецификации. В нем утверждается, что оценка максимального правдоподобия является последовательной оценкой для распределения который минимизирует KL-дивергенцию из всех распределений внутри статистической модели и истинного распределения \ mathbb {P} ^ * . P ∗
Что происходит с оценщиками доверия? Подведем итоги оценки достоверности набора. Пусть будет оценщиком множеств, где - пространство выборок, а - мощность, заданная в пространстве параметров . То, что мы хотели бы знать, это вероятность того, что наборы, создаваемые включают в себя истинное распределение , то есть
Тем не менее, мы, конечно, не знаем истинного распределения . Правильно определенное предположение говорит нам, что . Тем не менее, мы до сих пор не знаем, что это за модель распространения. Но,
Если мы отбросим правильно заданное предположение, больше не обязательно будет нижней границей для , термина, который нас на самом деле интересует. Действительно, если мы предположим, что модель ошибочна, что, вероятно, имеет место в большинстве реалистичных ситуаций, равно 0, поскольку истинное распределение не содержится в статистической модели .
С другой точки зрения можно подумать о том, к чему относится когда модель неверно определена. Это более конкретный вопрос. Имеет ли значение, если модель не указана. Если нет, то почему мы вообще беспокоимся о параметрической статистике?
Я думаю, Уайт 1982 содержит некоторые результаты по этим вопросам. К сожалению, отсутствие у меня математического образования мешает мне понять многое из того, что там написано.
Ответы:
Пусть - наблюдаемые данные, которые предположительно являются реализацией последовательности iid случайных величин с общей функцией плотности вероятности определенной относительно сигма-конечной меры . Плотность называется плотностью данных (DGP).y1,…,yn Y1,…,Yn pe ν pe
В вероятностной модели исследователя представляет собой набор функций плотности вероятности, которые индексируются вектором параметров . Предположим, что каждая плотность в определена относительно общей сигма-конечной меры (например, каждая плотность может быть функцией вероятностной массы с тем же пространством выборки ).M≡{p(y;θ):θ∈Θ} θ M ν S
Важно сохранить плотность которая фактически генерировала данные, концептуально отличную от вероятностной модели данных. В классических статистических методах тщательное разделение этих понятий либо игнорируется, либо не проводится, либо с самого начала предполагается, что вероятностная модель задана правильно.pe
Правильно заданная модель относительно определяется как модель, где почти везде. Когда неправильно определен относительно это соответствует случаю, когда вероятностная модель не указана правильно.M pe pe∈M ν M pe
Если вероятностная модель задана правильно, то в пространстве параметров существует такое что почти везде. Такой вектор параметров называется «вектором истинных параметров». Если вероятностная модель не указана, то вектор истинных параметров не существует.θ∗ Θ pe(y)=p(y;θ∗) ν
В рамках модели неправильной спецификации белых цель состоит в том, чтобы найти оценку параметра которая минимизирует над некоторым компактным пространством параметров . Предполагается, что уникальный строгий глобальный минимизатор, , ожидаемого значения в находится внутри . В счастливом случае, когда вероятностная модель указана правильно, может интерпретироваться как «истинное значение параметра».θ^n ℓ п(thetas)≡(1/п)Σ п я = 1 логр(уя;thetas)thetasthetas ; * ℓ пthetasthetasthetas*ℓ^n(θ)≡(1/n)∑ni=1logp(yi;θ) Θ θ∗ ℓ^n Θ Θ θ∗
В особом случае, когда вероятностная модель задана правильно, тогда является знакомой оценкой максимального правдоподобия. Если мы не знаем, обладаем абсолютным знанием того, что вероятностная модель задана правильно, то называется квазимаксимальной оценкой вероятности, и целью является оценка . Если нам повезет, и модель вероятности будет правильно определена, то оценка вероятности квази-максимума в частном случае сводится к известной оценке максимального правдоподобия, и становится истинным значением параметра.θ^n θ пθ*θ*θ^n θ∗ θ∗
Согласованность в рамках Уайта (1982) соответствует сходимости к не требуя, чтобы был обязательно вектором истинных параметров. В рамках Уайта мы никогда не будем оценивать вероятность того, что множества, порожденные δ, включают в себя ИСТИННОЕ распределение P *. Вместо этого мы всегда оценивали бы распределение вероятности P **, которое является вероятностью события, когда множества, порожденные δ, включают в себя распределение, определяемое плотностью .θ∗ θ∗ p(y;θ∗)
Напоследок несколько комментариев по поводу неправильной спецификации модели. Легко найти примеры, когда неправильно определенная модель чрезвычайно полезна и очень предсказуема. Например, рассмотрим модель нелинейной (или даже линейной) регрессии с гауссовым остаточным членом, дисперсия которого очень мала, но фактическая остаточная ошибка в среде не является гауссовой.
Также легко найти примеры, в которых правильно заданная модель бесполезна и не является прогнозирующей. Например, рассмотрим модель случайного блуждания для прогнозирования цен на акции, которая предсказывает, что завтрашняя цена закрытия представляет собой взвешенную сумму сегодняшней цены закрытия и некоторый гауссовский шум с чрезвычайно большой дисперсией.
Целью структуры неправильной спецификации модели является не обеспечение достоверности модели, а обеспечение ее надежности. Таким образом, убедитесь, что ошибка выборки, связанная с вашими оценками параметров, доверительными интервалами, проверками гипотез и т. Д., Правильно оценена, несмотря на наличие небольшой или большой степени неправильной спецификации модели. Оценки вероятности квази-максимума асимптотически нормальны с центром в с оценкой ковариационной матрицы, которая зависит как от первой, так и от второй производных отрицательной логарифмической функции правдоподобия. В особом случае, когда вам повезло, и модель верна, все формулы сводятся к знакомой классической статистической структуре, где целью является оценка «истинных» значений параметров.θ∗
источник
Во-первых, позвольте мне сказать, что это действительно интересный вопрос; Слава Джулиану за публикацию. На мой взгляд, фундаментальная проблема, с которой вы сталкиваетесь при таком анализе, состоит в том, что любой вывод любого подмножества является выводом над ограниченным классом вероятностных мер в модели , поэтому, когда вы начинаете спрашивать о вероятности выведения истинной модели в соответствии с моделью вырождаются до тривиального вопроса о том, существует или нет неправильная спецификация для начала. Белый обходит это, глядя на то, как близко модель подходит к истинной вероятностной мере, используя соответствующую метрику расстояния. Это приводит его к вероятностной мере , которая является ближайшим прокси дляΘ M Pθ1 P∗ в . Этот метод рассмотрения может быть расширен, чтобы дать интересные величины, относящиеся к вашему вопросу о наборах достоверности.M Pθ1
Прежде чем перейти к этому, стоит отметить, что значения и B математически хорошо определены в вашем анализе (т. Е. Они существуют), и они все еще имеют значение; это просто не обязательно очень полезный смысл. Значение А в вашем анализе четко определено; это истинная вероятность того, что выведенный набор вероятностных мер включает в себя истинную вероятностную меру. Вы правы, что P ∗ ∉ M подразумевает A = 0 , что означает, что эта величина тривиальна в случае неправильной спецификации. Следуя примеру белых, возможно, более интересно посмотреть на количество:A B A P∗∉M A=0
Здесь мы заменили внутреннее вхождение со своим ближайшим прокси в модели M , так что величина больше не оказывается тривиальной , когда P * ∉ M . Теперь мы запрашиваем истинную вероятность того, что предполагаемый набор вероятностных мер включает в себя ближайший прокси для истинной вероятностной меры в модели. Неправильная спецификация модели больше не тривиализирует эту величину, так как мы имеем P θ 1 ∈ M по построению.P∗ M P∗∉M Pθ1∈M
Белый анализ неправильной спецификации, показывая , что MLE является состоятельной оценкой . Это ценно, потому что говорит вам, что, даже если есть неправильная спецификация, вы все равно правильно оцените ближайший прокси к истинной вероятностной мере в модели. Естественный последующий вопрос, касающийся доверительных множеств, заключается в том, накладывает ли конкретный метод вывода δ какую-либо нижнюю границу на величину A ∗ или любой результат сходимости в пределе при n → ∞Pθ1 δ A∗ n→∞ , Если вы можете установить (положительную) нижнюю границу или (положительную) результат сходимости, это даст вам определенную ценность в гарантировании того, что даже при наличии неправильной спецификации вы все равно правильно оцените ближайший прокси с некоторым уровнем вероятности. Я бы порекомендовал вам изучить эти проблемы, следуя анализу, проведенному Уайтом.
источник