Вероятность может быть определена несколькими способами, например:
функция L
L из Θ × X,Θ×X которая отображает в т.е. .(θ,x)(θ,x) L(θ∣x)L(θ∣x) L:Θ×X→RL:Θ×X→R случайная функцияL(⋅∣X)
L(⋅∣X) мы также можем учитывать, что вероятность - это только «наблюдаемая» вероятность L ( ⋅ | х набл )
L(⋅∣xobs) на практике вероятность доводит информацию о θ
θ только до мультипликативной константы, поэтому мы можем рассматривать вероятность как класс эквивалентности функций, а не как функцию
Другой вопрос возникает при рассмотрении изменения параметризации: если ϕ = θ 2
Какое ваше любимое строгое определение вероятности?
Кроме того, как вы называете L ( θ ∣ x )
РЕДАКТИРОВАТЬ: с учетом некоторых комментариев ниже, я понимаю, что я должен был уточнить контекст. Я рассматриваю статистическую модель, заданную параметрическим семейством { f ( ⋅ ∣ θ ) , θ ∈ Θ }
источник
Ответы:
Ваш третий пункт - тот, который я видел наиболее часто используемым в качестве строгого определения.
Остальные тоже интересны (+1). В частности, первое является привлекательным, поскольку трудно определить размер выборки (пока), сложнее определить набор «от».
Для меня фундаментальная интуиция вероятности состоит в том, что она является функцией модели + ее параметров, а не функцией случайных величин (также важным моментом в учебных целях). Поэтому я бы придерживался третьего определения.
Источником злоупотребления нотацией является то, что множество вероятностей «от» является неявным, что обычно не относится к четко определенным функциям. Здесь наиболее строгий подход состоит в том, чтобы понять, что после преобразования вероятность связана с другой моделью. Это эквивалентно первой, но все же другой модели. Таким образом, запись правдоподобия должна показывать, к какой модели она относится (подстрочный или другой). Я никогда не делаю это, конечно, но для обучения, я мог бы.
Наконец, чтобы соответствовать моим предыдущим ответам, я говорю «вероятность θ » в вашей последней формуле.θ
источник
Я думаю, я бы назвал это чем-то другим. Вероятность - это плотность вероятности для наблюдаемого x с учетом значения параметра θ, выраженного как функция от θ для данного x . Я не разделяю мнение о константе пропорциональности. Я думаю, что это вступает в игру только потому, что максимизация любой монотонной функции вероятности дает такое же решение для θ . Таким образом, вы можете максимизировать c L ( θ ∣ x ) для c > 0 или других монотонных функций, таких как log ( L ( θ ∣ x ) )θ θ x θ cL(θ∣x) c>0 log(L(θ∣x)) что обычно делается.
источник
Вот попытка строгого математического определения:
Пусть X : Ом → R п случайный вектор , который допускает плотность п ( х | & thetas ; 0 ) относительно некоторой меры v , на R п , где для & thetas ∈ & thetas ; , { F ( х | & thetas ; ) : & thetas ; ∈ & thetas ; } семейство плотностей на R n относительно ν . Тогда для любого x ∈ R n определим функцию правдоподобияX:Ω→Rn f(x|θ0) ν Rn θ∈Θ {f(x|θ):θ∈Θ} Rn ν x∈Rn L ( θ | x ) будет f ( x | θ ) ; для ясности, для каждого х мы имеем L х : & thetas → R . Можно думать, что x является конкретным потенциалом x o b s, а θ 0 является «истинным» значением θ .L(θ|x) f(x|θ) x Lx:Θ→R x xobs θ0 θ
Пара замечаний по поводу этого определения:
источник