Я пытаюсь научиться подкреплению, и эта тема меня очень смущает. Я взял введение в статистику, но я просто не мог понять эту тему интуитивно.
источник
Я пытаюсь научиться подкреплению, и эта тема меня очень смущает. Я взял введение в статистику, но я просто не мог понять эту тему интуитивно.
Выборка по важности - это форма выборки из распределения, отличного от распределения по интересам, чтобы упростить получение более точных оценок параметра из распределения по интересам. Как правило, это обеспечит оценки параметра с меньшей дисперсией, чем было бы получено путем выборки непосредственно из исходного распределения с тем же размером выборки.
Применяется в разных контекстах. В целом, выборка из другого распределения позволяет отбирать больше образцов в той части распределения интересов, которая диктуется приложением (важный регион).
Одним из примеров может быть то, что вы хотите иметь выборку, которая включает в себя больше выборок из хвостов распределения, чем может обеспечить чистая случайная выборка из интересующего распределения.
Википедии статья , что я видел на эту тему слишком абстрактно. Лучше взглянуть на различные конкретные примеры. Однако он содержит ссылки на интересные приложения, такие как Байесовские сети.
Одним из примеров важности выборки в 1940-х и 1950-х годах является метод уменьшения дисперсии (форма метода Монте-Карло). См., Например, книгу «Методы Монте-Карло» Хаммерсли и Хэндскомба, опубликованную в 1964 году в виде монографии Метуэна / Чепмена и Холла и переизданную в 1966 году, а затем и другими издателями. Раздел 5.4 книги охватывает важность выборки.
Выборка по важности - это метод моделирования или метод Монте-Карло, предназначенный для аппроксимации интегралов. Термин «выборка» несколько сбивает с толку, поскольку он не предназначен для предоставления выборок из данного распределения.
Интуиция позади важности выборки состоит в том, что четко определенный интеграл, такой как можно выразить как ожидание для широкого диапазона распределений вероятностей: I = E f [ H ( X ) ] = ∫ X H ( x ) f ( x )
Как только это элементарное свойство понято, реализация идеи заключается в том, чтобы полагаться на закон больших чисел, как и в других методах Монте-Карло, т.е. моделировать [через псевдослучайный генератор] выборку iid распространен от F и использовать приближение I = 1(x1,…,xn) f который
В зависимости от выбора распределения , выше оценки I может или не может иметь конечную дисперсию. Однако всегда существуют варианты f, которые допускают конечную дисперсию и даже сколь угодно малую дисперсию (хотя эти варианты могут быть недоступны на практике). И существуют также выбор F , которые делают важность выборки оценивания I очень плохой аппроксимации I . Это включает в себя все варианты, где дисперсия становится бесконечной, хотя недавняя статья Чаттерджи и Диакониса изучает, как сравнивать важные пробоотборники с бесконечной дисперсией. Картинка ниже взята изе я^ е е я^ я мой блог обсуждение из бумаги и показывает плохую сходимость бесконечных дисперсии оценок.
[Следующее воспроизведено из нашей книги Статистические методы Монте-Карло .]
Следующий пример из Ripley (1987) показывает, почему он действительно может заплатить за генерацию из распределения, отличного от (оригинального) распределения фигурирующего в интеграле ∫ X h ( x ) f ( x )е представляет интерес, или, другими словами, изменить представление интеграла как ожидание от заданной плотности.
Пример (вероятность хвоста Коши) Предположим, что интересующей величиной является вероятность, , что переменная Коши C ( 0 , 1 ) больше 2 , то есть p = ∫ + ∞ 2п С( 0 , 1 ) 2
При р оцениваются через эмпирический средний
р 1 = 1
Эта дисперсия может быть уменьшена, принимая во внимание симметричный характер , поскольку средний р 2 = 1С( 0 , 1 )
Compared withp^1 , the reduction in variance brought by p^4
is of order 10−3 , which implies, in
particular, that this evaluation requires
1000−−−−√≈32 times fewer simulations than p^1
to achieve the same precision. ▶
источник