Недавно я читал статью, в которой случайность включалась в ее достоверность и достоверные интервалы, и мне было интересно, является ли это стандартом (и, если да, то почему это разумно). Чтобы установить обозначения, предположим, что наши данные и мы заинтересованы в создании интервалов для параметра θ ∈ Θ . Я привык к доверительным / доверительным интервалам, которые строятся путем построения функции
и пусть наш интервал будет .
Это случайное в том смысле, что оно зависит от данных, но при условии данных это просто интервал. Этот документ вместо этого определяет
а также набор iid равномерных случайных величин на [ 0 , 1 ] . Он определяет соответствующий интервал как I = { θ ∈ Θ . Обратите внимание, что это во многом зависит от вспомогательной случайности, помимо того, что исходит из данных.
Мне очень любопытно, почему можно так поступить. Я думаю, что «ослабление» понятия интервала от функций типа до функций типа g x имеет некоторый смысл; это какой-то взвешенный доверительный интервал. Я не знаю каких-либо ссылок на него (и был бы признателен за любые указатели), но это кажется вполне естественным. Тем не менее, я не могу думать ни о какой причине, чтобы добавить вспомогательную случайность.
Любые указатели на литературу / причины для этого будут оценены!
Ответы:
Рандомизированные процедуры иногда используются в теории, потому что это упрощает теорию. В типичных статистических задачах это не имеет смысла на практике, в то время как в настройках теории игр это может иметь смысл.
Единственная причина, по которой я могу использовать его на практике, заключается в том, что он каким-то образом упрощает вычисления.
Чтобы ответить на комментарии Вубера, приведенные ниже: «Почему рандомизированные процедуры« не имеют смысла на практике »? Как уже отмечали другие, экспериментаторы вполне готовы использовать рандомизацию при построении своих экспериментальных данных, таких как рандомизированное распределение лечения и контроля». Так что же такого особенного (и непрактичного, или нежелательного) в использовании рандомизации в последующем анализе данных? "
Что ж, рандомизация эксперимента для получения данных выполняется с целью, главным образом для разрыва цепей причинности. Если и когда это эффективно, другое обсуждение. Какова может быть цель использования рандомизации как части анализа? Единственная причина, которую я когда-либо видел, состоит в том, что она делает математическую теорию более полной! Это нормально, пока это идет. В контексте теории игр, когда есть реальный противник, рандомизация может помочь мне запутать его. В реальных условиях принятия решения (продавать или не продавать?) Необходимо принять решение, и, если в данных нет доказательств, может быть, можно просто бросить монетку. Но в научном контексте, где вопрос в том, что мы можем узнатьиз данных, рандомизация кажется неуместной. Я не вижу никакой реальной выгоды от этого! Если вы не согласны, есть ли у вас аргумент, который мог бы убедить биолога или химика? (И здесь я не думаю о симуляции как о части начальной загрузки или MCMC.)
источник
Идея относится к тестированию, но с учетом двойственности тестирования и доверительных интервалов та же логика применима к КИ.
В основном, рандомизированные тесты гарантируют, что данный размер теста может быть получен и для дискретных экспериментов.
Предположим, вы хотите проверить на уровнеα = 0,05 , честность монеты (вставьте любой пример по вашему выбору, который можно смоделировать с помощью биномиального эксперимента), используя вероятность п голов. То есть вы тестируетеЧАС0: р = 0,5 против (скажем) ЧАС1: р < 0,5 , Предположим, вы бросили монетуп = 10 раз.
Очевидно, что несколько голов являются доказательствомЧАС0 , Зак = 2 успехи, мы можем вычислить п -значение теста к = 1 получаем 0,0107. Следовательно, нет никакого способа отклонить истинноеЧАС0 с вероятностью 5% без рандомизации.
pbinom(2,10,.5)
в R, получая 0,054. ЗаЕсли мы будем случайным образом отклонять и принимать при наблюдениик = 2 Мы все еще можем достичь этой цели.
источник