Пусть - семейство случайных величин iid, принимающих значения в , имеющих среднее и дисперсию . Простой доверительный интервал для среднего значения, использующий всякий раз, когда он известен, задается как
Кроме того, поскольку асимптотически распределяется как стандартная нормальная случайная величина, нормальное распределение иногда используется для "построения" приблизительного доверительного интервала.
В экзаменах по статистике ответов с несколькими вариантами ответов мне приходилось использовать это приближение вместо всякий раз, когда . Я всегда чувствовал себя очень неловко с этим (больше, чем вы можете себе представить), так как ошибка аппроксимации не определяется количественно.
Зачем использовать нормальное приближение, а не ?
Я больше не хочу слепо применять правило . Есть ли хорошие рекомендации, которые могут поддержать меня в отказе сделать это и предоставить подходящие альтернативы? ( является примером того, что я считаю подходящей альтернативой.)
Здесь, пока и неизвестны, они легко ограничены.
Обратите внимание, что мой вопрос является справочным запросом, в частности, о доверительных интервалах, и поэтому отличается от вопросов, которые были предложены как частичные дубликаты здесь и здесь . Там нет ответа.
Ответы:
Зачем использовать нормальное приближение?
Это так же просто, как сказать, что всегда лучше использовать больше информации, чем меньше. В уравнении (1) используется теорема Чебышева . Обратите внимание, что он не использует никакой информации о форме вашего дистрибутива, т.е. он работает для любого дистрибутива с заданной дисперсией. Следовательно, если вы используете некоторую информацию о форме вашего дистрибутива, вы должны получить лучшее приближение. Если вы знали, что ваше распределение является гауссовским, то, используя эти знания, вы получите более точную оценку.
Поскольку вы уже применяете центральную предельную теорему, почему бы не использовать гауссово приближение границ? Они будут лучше, на самом деле, более узкими (или более резкими), потому что эти оценки основаны на знании формы, которая является дополнительной информацией.
Практическое правило 30 - это миф, который выигрывает от предвзятости подтверждения . Он просто копируется из одной книги в другую. Однажды я нашел ссылку на это правило в газете 1950-х годов. Насколько я помню, это не было каким-либо твердым доказательством. Это было какое-то эмпирическое исследование. По сути, единственная причина, по которой он используется - это то, что он работает. Вы не видите, что это часто нарушается.
ОБНОВЛЕНИЕ Посмотрите статью Захария Р. Смита и Крейга Уэллса « Центральная предельная теорема и размер выборки ». Они представляют эмпирическое исследование сходимости к CLT для различных видов распределений. Конечно, магическое число 30 не работает во многих случаях.
источник
Проблема с использованием неравенства Чебышева для получения интервала для истинного значения заключается в том, что он дает только нижнюю границу для вероятности, которая к тому же иногда тривиальна, или, чтобы не быть тривиальной, она может дать очень широкую доверительный интервал. У нас есть
Мы видим, что, в зависимости также от размера выборки, если мы уменьшим «слишком сильно», мы получим тривиальный ответ «вероятность больше нуля».ε
Кроме того, что мы получаем из этого подхода, так это вывод вида "" вероятность того, что попадет в [ ˉ X ± ε ] , равна или больше ... "μ [X¯±ε]
Но давайте предположим , что мы хорошо с этим, и обозначим минимальная вероятность , с которой мы знакомы. Итак, мы хотимpmin
При небольших размерах выборки и высокой требуемой минимальной вероятности это может дать неудовлетворительно широкий доверительный интервал. Например, для и n = 100 мы получим ε ≈ 0,316 , что, например, для переменной, обработанной OP, ограниченной в [ 0 , 1 ], представляется слишком большим, чтобы быть полезным.pmin=0.9 n=100 ε≈.316 [0,1]
Но этот подход действителен и не распространяется, поэтому могут быть случаи, когда он может быть полезен.
Можно также проверить неравенство Высочанского – Петунина, упомянутое в другом ответе, который справедлив для непрерывных унимодальных распределений и уточняет неравенство Чебышева.
источник
Короткий ответ: все может пойти очень плохо, но только если один или оба хвоста распределения выборки действительно толстые .
Этот код R генерирует миллион наборов из 30 гамма-распределенных переменных и принимает их среднее значение; его можно использовать, чтобы получить представление о том, как выглядит выборочное распределение среднего значения. Если нормальное приближение работает как задумано, результаты должны быть приблизительно нормальными со средним значением 1 и дисперсией
1/(30 * shape)
.f = function(shape){replicate(1E6, mean(rgamma(30, shape, shape)))}
При
shape
значении 1,0 гамма-распределение становится экспоненциальным , что довольно ненормально. Тем не менее, негауссовские части в основном усредняются, и поэтому гауссовское приближение не так уж и плохо:Здесь явно есть некоторая предвзятость, и было бы неплохо избежать этого, когда это возможно. Но, честно говоря, такой уровень предвзятости, вероятно, не будет самой большой проблемой, стоящей перед типичным исследованием.
Тем не менее, все может стать намного хуже. При
f(0.01)
этом гистограмма выглядит так:Логическое преобразование 30 точек выборки данных перед усреднением очень помогает, хотя:
В общем случае для распределений с длинными хвостами (на одной или обеих сторонах распределения) потребуется наибольшее количество выборок, прежде чем приближение Гаусса станет надежным. Есть даже патологические случаи, когда буквально никогда не будет достаточно данных для работы гауссовского приближения, но у вас, вероятно, будут более серьезные проблемы в этом случае (потому что распределение выборки не имеет четко определенного среднего значения или дисперсии, чтобы начать с).
источник
Проблема с доверительным интервалом Чебышева
Как упоминалось Карло, мы имеем . Это следует изVar(X)≤µ(1-µ). Поэтому доверительный интервал дляцдается P(| ˉ Х -ц|≥е)≤1σ2≤14 Var(X)≤μ(1−μ) μ
Проблема в том, что неравенство в определенном смысле довольно свободно, когдаnстановится большим. Улучшение дается границей Хеффдинга и показано ниже. Тем не менее, мы также можем продемонстрировать, насколько плохо это может стать, используятеорему Берри-Эссеена, на которую указал Ив. ПустьX уменяесть дисперсия1
Сравнивая длины доверительных интервалов
Рассмотрим длины доверительного интервала ℓ Z ( α , n ) и ℓ C ( α , n ), полученные с использованием нормального приближения ( σ = 1(1−α) ℓZ(α,n) ℓC(α,n) σ= 12 ℓС( α , n ) ℓZ( α , n ) N N
Используя границу Хеффдинга
источник
curve(sqrt(-log(.025)/2/x), to= 100, col= 'red', xlab= 'n', ylab= 'half interval') #Hoeffding ; curve(qnorm(.975, 0, .5/sqrt(x)), to= 100, add= T, col= 'darkgreen') #normal approximation
давайте начнем с числа 30: это, как кто-нибудь скажет, эмпирическое правило. но как мы можем найти число, которое лучше соответствует нашим данным? На самом деле это в основном вопрос асимметрии: даже самые странные распределения быстро сходятся к нормальным, если они симметричные и непрерывные, искаженные данные будут намного медленнее. Я помню, как узнал, что биномиальное распределение может быть правильно приближено к нормальному, когда его дисперсия больше 9; в этом примере следует учитывать, что дискретное распределение также имеет проблему, заключающуюся в том, что им необходимы большие числа для симуляции непрерывности, но подумайте об этом: симметричное биномиальное распределение достигнет этой дисперсии с n = 36, если вместо p = 0,1, n должно идти до 100 (переменная трансформация, однако, очень поможет)!
Если вы хотите использовать вместо этого только дисперсию, отбрасывая гауссову аппроксимацию, рассмотрите неравенство Высочанского – Петунина по Чебичеву, для этого необходимо допустить унимодальное распределение среднего значения, но это очень безопасное с любым размером выборки, я бы сказал, большим чем 2.
источник