Вопросы с тегом «likelihood»

Учитывая случайную величину которая возникает из параметризованного распределения F (X; θ) , вероятность определяется как вероятность наблюдаемых данных как функция от θ: text {L} (θ) = text {P} (θ ; х = х) Икс X F ( Х ; θ ) F(X;θ) θ : L ( θ ) = P ( θ ; X = х ) θ:L(θ)=P(θ;X=x)

474
В чем разница между «вероятностью» и «вероятностью»?

На странице википедии утверждается, что вероятность и вероятность - это разные понятия. На нетехническом языке «правдоподобие» обычно является синонимом «вероятности», но при статистическом использовании существует четкое различие в перспективе: число, которое является вероятностью некоторых...

92
Оценка максимального правдоподобия (MLE) в терминах непрофессионала

Может ли кто-нибудь объяснить мне подробно об оценке максимального правдоподобия (MLE) в терминах непрофессионала? Я хотел бы знать основную концепцию, прежде чем перейти к математическому выводу или...

78
Пример: регрессия LASSO с использованием glmnet для двоичного результата

Я начинаю баловаться с использованием glmnetс LASSO регрессией , где мой результат представляет интерес дихотомический. Я создал небольшой фрейм данных ниже: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, 0.91,...

73
Что такое «ограниченная максимальная вероятность» и когда ее следует использовать?

Я прочитал в реферате этой статьи, что: «Процедура максимального правдоподобия (ML) в Hartley aud Rao модифицируется путем адаптации преобразования Паттерсона и Томпсона, которое делит нормальность правдоподобия на две части, одна из которых не имеет фиксированных эффектов. Максимизация этой части...

71
Генерация случайной величины с определенной корреляцией с существующей переменной

Для исследования моделирования я должен генерировать случайные переменные , которые показывают prefined (населения) корреляцию с существующей переменной .YYY Я посмотрел на Rпакеты copulaи CDVineкоторые могут производить случайные многомерные распределения с заданной структурой зависимостей. Однако...

66
Зачем оптимизировать максимальную логарифмическую вероятность вместо вероятности

В большинстве задач машинного обучения, где вы можете сформулировать некоторую вероятность которая должна быть максимизирована, мы фактически оптимизировали бы логарифмическую вероятность вместо вероятности для некоторых параметров . Например, в обучении с максимальным правдоподобием, это, как...

57
Примеры, где метод моментов может превзойти максимальную вероятность в маленьких выборках?

Оценки максимального правдоподобия (MLE) асимптотически эффективны; мы видим практический результат в том, что они часто работают лучше, чем оценки методом моментов (MoM) (когда они различаются), даже при небольших размерах выборки Здесь «лучше чем» означает то, что обычно имеет меньшую дисперсию,...

55
Расширенные рекомендации по статистике книг

На этом сайте есть несколько веток для рекомендаций по вводной статистике и машинному обучению, но я ищу текст по расширенной статистике, в том числе в порядке приоритета: максимальная вероятность, обобщенные линейные модели, анализ главных компонентов, нелинейные модели . Я пробовал Статистические...

54
Основной вопрос о информационной матрице Фишера и связи с гессианскими и стандартными ошибками

Хорошо, это довольно простой вопрос, но я немного запутался. В своей диссертации я пишу: Стандартные ошибки могут быть найдены путем вычисления обратного корня квадратного из диагональных элементов (наблюдаемой) информационной матрицы Фишера: Так как команда оптимизации в R...

47
Почему мы минимизируем отрицательную вероятность, если она эквивалентна максимизации вероятности?

Этот вопрос меня давно озадачил. Я понимаю использование 'log' в максимизации вероятности, поэтому я не спрашиваю о 'log'. Мой вопрос таков: поскольку максимизация логарифмической вероятности эквивалентна минимизации «отрицательной логарифмической вероятности» (NLL), почему мы изобрели эту NLL?...

46
Что говорит обратная ковариационная матрица о данных? (Наглядно)

Меня интересует природа Σ−1Σ−1\Sigma^{-1} . Кто-нибудь может сказать что-то интуитивное о том, «Что Σ−1Σ−1\Sigma^{-1} говорит о данных?» Редактировать: Спасибо за ответы Пройдя несколько отличных курсов, я бы хотел добавить несколько моментов: Это мера информации, т. Е. xTΣ−1xxTΣ−1xx^T\Sigma^{-1}x...

46
Интерпретация логарифмически преобразованного предиктора и / или ответа

Мне интересно, имеет ли это значение при интерпретации того, являются ли логически преобразованными только зависимые, как зависимые, так и независимые, или только независимые переменные. Рассмотрим случай log(DV) = Intercept + B1*IV + Error Я могу интерпретировать IV как процентное увеличение, но...

46
Как рассчитать псевдо- из логистической регрессии R?

Отчет Кристофера Мэннинга по логистической регрессии в R показывает логистическую регрессию в R следующим образом: ced.logr <- glm(ced.del ~ cat + follows + factor(class), family=binomial) Некоторый вывод: > summary(ced.logr) Call: glm(formula = ced.del ~ cat + follows + factor(class), family...

46
Интуиция позади, почему парадокс Штейна применим только в измерениях

Пример Стейна показывает, что оценка максимального правдоподобия nnn нормально распределенных переменных со средними значениями μ1,…,μnμ1,…,μn\mu_1,\ldots,\mu_n и дисперсиями 111 недопустима (при функции квадрата потерь) тогда и только тогда, когда n≥3n≥3n\ge 3 . Для ясного доказательства см....

45
Все модели бесполезны? Возможна ли какая-то точная модель - или полезная?

Этот вопрос был в моей голове более месяца. Выпуск Amstat News за февраль 2015 года содержит статью профессора Беркли Марка ван дер Лаана, которая ругает людей за использование неточных моделей. Он утверждает, что при использовании моделей статистика становится искусством, а не наукой. По его...

44
Почему кто-то использует байесовский подход с «неинформативным» неподобающим предшествующим вместо классического подхода?

Если интерес представляет собой просто оценка параметров модели (точечная и / или интервальная оценка) и предшествующая информация не является надежной, слабой (я знаю, что это немного расплывчато, но я пытаюсь создать сценарий, в котором выбор до этого сложно) ... Почему кто-то решил использовать...

43
Почему люди используют р-значения вместо вычисления вероятности модели данных данных?

Грубо говоря, значение p дает вероятность наблюдаемого исхода эксперимента с учетом гипотезы (модели). Имея эту вероятность (p-значение), мы хотим оценить нашу гипотезу (насколько она вероятна). Но не будет ли более естественным рассчитать вероятность гипотезы с учетом наблюдаемого исхода? Более...