Для идентификации мы говорим о параметре (который может быть вектором), который находится в пространстве параметров Θ , и о семействе распределений (для простоты, представьте PDF-файлы), индексированных по θ, которые мы обычно пишем что-то вроде { f θ |θΘθ . Например, θ может быть θ = β, а f может быть{fθ|θ∈Θ}θθ=βf
что означает, чтоΘ=(0,∞). Для того, чтобы модель была идентифицируемой, преобразование, которое отображаетθвfθ,должно бытьвзаимно-однозначным. Учитывая модель на коленях, самый простой способ проверить это - начать с уравненияfθ 1 =fθ 2 (это равенство должно выполняться для (почти) всехxв
fθ(x)=1βe−x/β, x>0, β>0,
Θ=(0,∞)θfθfθ1=fθ2xподдержка ) и попытаться использовать алгебру (или какой -либо другой аргумент) , чтобы показать , что именно такое уравнение предполагает , что, по сути, &
.
θ1=θ2
Если вы преуспеете с этим планом, то ваша модель будет идентифицируемой; продолжай свой бизнес. Если вы этого не сделаете, то либо ваша модель не может быть идентифицирована, либо вам нужно найти другой аргумент. Интуиция одна и та же, независимо от того: в идентифицируемой модели невозможно, чтобы два разных параметра (которые могли быть векторами) приводили к одной и той же функции правдоподобия.
Это имеет смысл, потому что, если для фиксированных данных два уникальных параметра приводят к одинаковой вероятности, тогда будет невозможно провести различие между двумя параметрами-кандидатами на основе только данных. В этом случае невозможно определить истинный параметр.
Для приведенного выше примера уравнение равно
1fθ1=fθ2
для (почти) всехx>0. Если мы возьмем журналы обеих сторон мы получаем
-пер
1β1e−x/β1=1β2e−x/β2,
x>0
при
x>0, что подразумевает линейную функцию
−lnβ1−xβ1=−lnβ2−xβ2
x>0
(почти) тождественно равен нулю. Единственная линия, которая делает это, - это та, которая имеет наклон 0 и точку пересечения y с нулем. Надеюсь, вы сможете увидеть все остальное.
−(1β1−1β2)x−(lnβ1−lnβ2)
f(y)=y2y[−1,1]y[0,1]
Одним из способов является проверка ковариационной матрицы,Σ , вашего параметра оценки. Если две оценки параметров идеально (приблизительно) коррелируют друг с другом или одна оценка параметров является (приблизительно) линейной комбинацией нескольких других, то ваша модель не идентифицируется; параметры, которые являются функциями других, не являются необходимыми. В каждом из этих случаевΣ также будет (приблизительно) единичным. Так что еслиΣ примерно единственное число, это может дать вам повод для беспокойства по поводу проблем с идентификацией. (Хотя я не думаю, что это обнаружило бы нелинейные отношения между оценками параметров, которые привели бы к неидентификации).
Практическая проблема заключается в том, что часто трудно рассчитатьΣ даже для слегка сложных моделей.
Если вы решаете задачу максимального правдоподобия, то вы знаете, что асимптотическая ковариационная матрица ваших оценок равна инверсии информации Фишера, оцененной в MLE. Таким образом, проверка информационной матрицы Фишера на наличие (приблизительной) особенности также является разумным способом оценки идентифицируемости. Это также работает в тех случаях, когда теоретическую информацию о Фишере трудно рассчитать, поскольку зачастую можно очень точно численно аппроксимировать согласованную оценку матрицы информации о Фишере, например, путем оценки ожидаемого внешнего продукта функции оценки по наблюдаемому среднему внешнему продукту. ,
Если вы не решаете проблему ОД, вы можете справиться сΣ путем моделирования данных из модели и оценки параметров большое количество раз и расчета выборочной ковариационной матрицы.
источник