Вопросы с тегом «likelihood»

22
Как вывести функцию вероятности для биномиального распределения для оценки параметров?

Согласно «Вероятности и статистике Миллера и Фрейнда для инженеров», 8ed (стр.217-218), функция правдоподобия, которая должна быть максимизирована для биномиального распределения (испытания Бернулли), определяется как L ( p ) = ∏Nя = 1пИкся( 1 - р )1 - хяL(п)знак равноΠязнак...

22
Почему максимальная вероятность, а не ожидаемая вероятность?

Почему так часто получают оценки максимального правдоподобия параметров, но вы практически никогда не слышали об ожидаемых оценках параметров правдоподобия (т. Е. На основе ожидаемого значения, а не режима функции правдоподобия)? Это в первую очередь по историческим причинам или по более предметным...

22
Как обеспечить свойства ковариационной матрицы при подборе многомерной нормальной модели с использованием максимального правдоподобия?

Предположим, у меня есть следующая модель Yя= ф( хя, θ ) + εяYязнак равное(Икся,θ)+εяy_i=f(x_i,\theta)+\varepsilon_i где , - вектор объясняющих переменных, - параметры нелинейной функции и , где естественно, матрица.Yя∈ RКYя∈рКy_i\in \mathbb{R}^KИксяИксяx_iθθ\thetaееfεя∼ N( 0 , Σ...

22
Теорема Байеса Интуиция

Я пытался развить интуитивное понимание теоремы Байеса с точки зрения априорной , апостериорной , вероятностной и предельной вероятности. Для этого я использую следующее уравнение: где представляет гипотезу или убеждение, а представляет данные или свидетельство. Я понял концепцию апостериор - это...

22
Вероятность - зачем умножать?

Я изучаю оценку максимального правдоподобия и читаю, что функция правдоподобия является произведением вероятностей каждой переменной. Почему это продукт? Почему не сумма? Я пытался найти в Google, но не могу найти сколько-нибудь значимых ответов....

22
Всегда ли объективный оценщик максимального правдоподобия всегда лучший объективный оценщик?

Я знаю, для обычных задач, если у нас есть лучший регулярный объективный оценщик, это должен быть оценщик максимального правдоподобия (MLE). Но в целом, если у нас есть беспристрастный MLE, будет ли он также лучшим беспристрастным оценщиком (или, может быть, я должен назвать его UMVUE, если он...

21
Есть ли разница между частотой и байесовской оценкой правдоподобия?

Некоторые источники говорят, что функция правдоподобия не является условной вероятностью, некоторые говорят, что это так. Это очень смущает меня. Согласно большинству источников, которые я видел, вероятность распределения с параметром должна быть произведением функции вероятности массы, учитывая...

21
Преобразование (нормализация) очень малых значений вероятности в вероятность

Я пишу алгоритм, в котором, учитывая модель, я вычисляю вероятности для списка наборов данных, а затем должен нормализовать (для вероятности) каждый из вероятностей. Таким образом, что-то вроде [0.00043, 0.00004, 0.00321] может быть преобразовано в что-то вроде [0.2, 0.03, 0.77]. Моя проблема...

21
Что подразумевается под стандартной ошибкой оценки максимального правдоподобия?

Я математик, самостоятельно изучающий статистику и особенно борющийся с языком. В книге, которую я использую, есть следующая проблема: Случайная переменная задается как распределяется с . (Конечно, для этого вопроса можно взять любое распределение в зависимости от одного параметра.) Затем...

21
Почему квазипуассон в GLM не рассматривается как частный случай отрицательного бинома?

Я пытаюсь приспособить обобщенные линейные модели к некоторым наборам данных подсчета, которые могут быть или не быть перераспределены. Здесь применимы два канонических распределения: Пуассон и Отрицательный бином (Негбин) с EV и дисперсией.μμ\mu Вгп= μВaрпзнак равноμVar_P = \mu ВгNВ= μ +...

21
Задний очень отличается от предыдущего и вероятности

Если априор и вероятность сильно отличаются друг от друга, то иногда возникает ситуация, когда апостериор не похож ни на один из них. Посмотрите, например, эту картинку, которая использует нормальные распределения. Хотя это математически правильно, это, похоже, не соответствует моей интуиции - если...

20
Пример, где принцип правдоподобия * действительно * имеет значение?

Существует ли пример, в котором два различных защищаемых теста с пропорциональными правдоподобиями приведут один к заметно различным (и одинаково оправданным) выводам, например, где значения p на порядок величин далеко друг от друга, но мощность альтернатив аналогична? Все примеры, которые я вижу,...

20
Оценщики максимального правдоподобия - многомерный гауссов

контекст Многомерный гауссов часто появляется в машинном обучении, и следующие результаты используются во многих книгах и курсах по ML без дериваций. Данные даны в виде матрицы измерений , если мы предположим, что данные следуют вариативному гауссовскому распределению с параметрами mean ( ) и...

20
Каковы правильные значения для точности и отзыва в крайних случаях?

Точность определяется как: p = true positives / (true positives + false positives) Является ли это исправить , что, как true positivesи false positivesподход 0, точность приближается к 1? Тот же вопрос для отзыва: r = true positives / (true positives + false negatives) В настоящее время я выполняю...

19
Если принцип правдоподобия вступает в противоречие с вероятностной вероятностью, тогда отбрасываем ли мы один из них?

В комментарии, недавно размещенном здесь, один комментатор указал на блог Ларри Вассермана, который указывает (без каких-либо источников), что частые выводы противоречат принципу вероятности. Принцип правдоподобия просто говорит о том, что эксперименты, дающие сходные функции правдоподобия, должны...

19
Что на практике означает «вероятность определяется только с точностью до мультипликативной константы пропорциональности»?

Я читаю статью, в которой авторы ведут от обсуждения оценки максимального правдоподобия к теореме Байеса, якобы в качестве введения для начинающих. Как пример вероятности, они начинаются с биномиального распределения: p(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,\theta) =...

19
Каковы недостатки профиля вероятности?

Рассмотрим вектор параметров , где θ 1 представляет интересующий параметр, а θ 2 является параметром помех.(θ1,θ2)(θ1,θ2)(\theta_1, \theta_2)θ1θ1\theta_1θ2θ2\theta_2 Если вероятность того, построена из данных х , профиль правдоподобия для & thetas 1 определяется как L P ( θ 1 ; х ) = L ( θ 1 ,...

19
Какова «фундаментальная» идея машинного обучения для оценки параметров?

«Фундаментальная» идея статистики для оценки параметров - это максимальная вероятность . Мне интересно, какова соответствующая идея в машинном обучении. Qn 1. Было бы справедливо сказать, что «фундаментальная» идея в машинном обучении для оценки параметров: «Функции потери» [Примечание: у меня...