В теореме Байеса , а из книги, которую я читаю, называется вероятность , но я предполагаю , что это всего лишь условная вероятность от дается , не так ли? p(x|y)
Оценка максимального правдоподобия пытается максимизировать , верно? Если это так, я сильно запутался, потому что обе случайные величины, верно? Для максимального только выяснить , в ? Еще одна проблема, если эти 2 случайные величины независимы, то это просто , верно? Тогда максимизация означает максимизацию .х , у р ( х | у ) р(х|у)р(х)р(х|у)р(х)
Или, может быть, является функцией некоторых параметров , то есть , и MLE пытается найти которая может максимизировать ? Или даже , что на самом деле параметры модели, а не случайной величины, максимизируя вероятность, чтобы найти у ?
ОБНОВИТЬ
Я новичок в машинном обучении, и эта проблема - путаница из материала, который я прочитал из учебника по машинному обучению. Здесь, учитывая наблюдаемый набор данных , целевыми значениями являются , и я пытаюсь подогнать модель по этому набору данных, поэтому я предполагаю, что, учитывая , имеет форму распределения с именем параметризованный , то есть , и я предполагаю, что это апостериорная вероятность , верно?x y W θ p ( y | x ; θ )
Теперь, чтобы оценить значение , я использую MLE. Хорошо, вот моя проблема, я думаю, что вероятность , верно? Максимизация вероятности означает, что я должен выбрать правильные и ?p ( x | y ; θ )y
Если мое понимание вероятности неверно, пожалуйста, покажите мне правильный путь.
источник
Ответы:
Я думаю, что основное недоразумение проистекает из вопросов, которые вы задаете в первой половине вашего вопроса. Я отношусь к этому ответу как к контрасту MLE и байесовской логической логики. Очень доступное обсуждение MLE можно найти в главе 1 Гэри Кинга « Объединяющая политическая методология». Байесовский анализ данных Гельмана может предоставить подробную информацию о байесовской стороне.
Вероятность - это условная вероятность. Для байесовской формулы эта формула описывает распределение параметра учетом данных x и предшествующего значения p ( y ) . Но поскольку эти обозначения не отражают ваше намерение, впредь я буду использовать ( θ , y ) для параметров и x для ваших данных.Y Икс р ( у) θ Y Икс
Но ваше обновление указывает, что наблюдаются из некоторого распределения p ( x | θ , y ) . Если мы разместим наши данные и параметры в соответствующих местах в правиле Байеса, мы обнаружим, что эти дополнительные параметры не создают проблем для байесовских уравнений: p ( θ | x , y ) = p ( x , y | θ ) p ( θ )Икс p ( x | θ , y)
Я верю, что это выражение - то, что вам нужно в вашем обновлении.
Да. MLE утверждает, что то есть обрабатывает член p ( θ , y )
В предполагается быть фиксированной величиной, неизвестно , но в состоянии сделать вывод, не является случайной величиной. Байесовский вывод рассматривает θ как случайную величину. Функции плотности байесовской логический вывод ставит вероятность в и получают функцию плотности вероятности из , а не точечного резюме модели, как и в ОМПЕ. То есть, байесовский вывод рассматривает полный диапазон значений параметров и вероятность каждого из них. MLE утверждает , что θ является адекватной сводкой данных , приведенных в модель.θ^ θ θ^
источник
Обычно является функцией параметра y . Рассмотрим следующую переформулировку теоремы Байеса:р ( х | у) Y
Или даже более явно (в отношении понятия вероятности):
Для конкретного примера рассмотрим модель
источник
источник
Из справочного руководства STAN:
источник