Я прохожу курс «Введение в Байес» и испытываю некоторые затруднения с пониманием предиктивного распределения. Я понимаю, почему они полезны, и я знаком с определением, но есть некоторые вещи, которые я не совсем понимаю.
1) Как получить правильное предсказательное распределение для вектора новых наблюдений
Предположим, что мы построили модель выборки для данных и априорного . Предположим, что наблюдения условно независимы с учетом .
Мы наблюдали некоторые данные , и мы обновляем наш предыдущий на задний .
Если мы хотим предсказать вектор новых наблюдений , я думаю, что мы должны попытаться получить апостериорный прогноз, используя эту формулу который не равен поэтому предсказанные наблюдения не являются независимыми, верно?
Скажи, что Бета ( ) и Бином ( ) для фиксированного . В этом случае, если бы я хотел смоделировать 6 новых , если я правильно понял, было бы неправильно моделировать 6 ничьих независимо от бета-биномиального распределения, которое соответствует апостериорному предиктиву для одного наблюдения. Это правильно? Я не знаю, как интерпретировать, что наблюдения не являются независимыми незначительно, и я не уверен, что понимаю это правильно.
Имитация из апостериорных предикатов
Много раз, когда мы моделируем данные из апостериорного прогнозирования, мы следуем этой схеме:
Для от 1 до :
1) Образец из .
2) Затем смоделируйте новые данные из .
Я не совсем знаю, как доказать, что эта схема работает, хотя выглядит интуитивно. Кроме того, у этого есть имя? Я пытался найти оправдание и пробовал разные имена, но мне не повезло.
Спасибо!
источник
Ответы:
Предположим, что условно независимы, если . ТогдаX1,…,Xn,Xn+1 Θ=θ
источник
Я постараюсь пошагово перейти к интуиции за генерацией апостериорного прогнозирующего распределения.
Пусть будет вектором наблюдаемых данных, которые поступают из распределения вероятностей и пусть будет вектором будущих (или вне выборочных) значений, которые мы хотим предсказать. Мы предполагаем, что происходит из того же распределения, что и . Может быть соблазнительно использовать нашу лучшую оценку --- такую как оценка MLE или MAP - для получения информации об этом распределении. Тем не менее, это неизбежно проигнорирует нашу неуверенность в отношении . Таким образом, подходящим способом продолжения является усреднение по заднему распределению , а именно . Заметим также , чтоy p(y|θ) y~ y~ y θ θ θ p(θ|y) y~ не зависит от заданного , так как предполагается, что это независимая выборка, взятая из того же распределения, что и . Таким образом,y θ y
Последовательное прогнозирующее распределение , таким образом,y~
где - поддержка .Θ θ
Теперь, как мы получаем образцы из ? Метод, который вы описываете, иногда называют методом композиции , который работает следующим образом:p(y~|y)
для s = 1,2, ..., S do
извлечь изθ(s) p(θ|y)
нарисовать изy~(s) p(y~|θ(s))
где, в большинстве случаев, у нас уже есть ничья из , так что требуется только второй шаг.p(θ|y)
Причина, по которой это работает, довольно проста: сначала обратите внимание, что . Таким образом, выборка вектора параметров из и затем использование этого вектора для выборки из дает выборки из совместного распределения . Отсюда следует, что выборочные значения являются выборками из маргинального распределения .p(y~,θ|y)=p(y~|θ,y)p(θ|y) θ(s) p(θ|y) y~(s) p(y~|θ(s))=p(y~|θ(s),y) p(y~,θ|y) y~(s),s=1,2,...,S p(y~|y)
источник
Чтобы ответить на ваш первый вопрос: да, наблюдения не являются независимыми, если вы не знаете значение . Скажем, вы заметили, что имеет весьма экстремальное значение. Это может быть признаком того, что неизвестное значение самой является экстремальным, и, следовательно, следует ожидать, что другие наблюдения также будут экстремальными.θ y~1 θ
источник