Существует ли надежный непараметрический доверительный интервал для среднего перекошенного распределения?

30

Очень искаженные распределения, такие как log-normal, не дают точных доверительных интервалов начальной загрузки. Вот пример, показывающий, что левая и правая области хвоста далеки от идеальных 0,025 независимо от того, какой метод начальной загрузки вы используете в R:

require(boot)
n    <- 25
B    <- 1000
nsim <- 1000
set.seed(1)
which <- c('basic', 'perc', 'norm', 'bca', 'stud')
mul <- 0; sdl <- 1.65   # on log scale
dist <- c('normal', 'lognormal')[2]
switch(dist, normal    = {g <- function(x) x; mu <- mul},
             lognormal = {g <- exp; mu <- exp(mul + sdl * sdl / 2)})
count <- matrix(0, nrow=length(which), ncol=2,
                dimnames=list(which, c('lower', 'upper')))
stat <- function(x, j) {
## See http://www.psychology.mcmaster.ca/bennett/boot09/percentileT.pdf
  x <- x[j]
  m <- mean(x)
  s <- sd(x)
  n <- length(x)
  sem <- s / sqrt(n)
  m.var <- sem ^ 2
  c(m, m.var)
}
for(i in 1 : nsim) {
  if(i %% 100 == 0) cat(i, '')
  x <- g(rnorm(n, mul, sdl))
  b  <- boot(x, stat, R=B)
  ci <- boot.ci(b, type=which)
  for(w in which) {
    nam <- switch(w, perc='percent', norm='normal', basic='basic',
                  stud='student', bca='bca')
    z <- rev(rev(ci[[nam]])[1:2])
    count[w, 'lower'] <- count[w, 'lower'] + (z[1] > mu)
    count[w, 'upper'] <- count[w, 'upper'] + (z[2] < mu)
  }
}
cat('\n')
count / nsim

Результат ниже:

      lower upper
basic 0.000 0.329
perc  0.003 0.257
norm  0.000 0.287
bca   0.015 0.185
stud  0.005 0.129

Для одиночные бутстрапы по-прежнему не обеспечивают достаточно точного покрытия:n=400

      lower upper
basic 0.001 0.114
perc  0.005 0.093
norm  0.002 0.102
bca   0.017 0.067
stud  0.011 0.058

Эмпирическая вероятность также не дает точных доверительных интервалов при выборке из логнормального распределения.

Есть ли универсальный подход, который не зависит от знания заранее распределения? Кто-нибудь пытался получить доверительные интервалы для среднего значения, подгоняя данные к обобщенному распределению Тьюки (это распределение очень гибкое)? Как насчет использования доверительных полос Колмогорова-Смирнова для CDF? Будет ли вычисление среднего значения для верхней и нижней границ CDF ужасно консервативным? Я бы согласился на некоторый консерватизм, если метод имеет широкое применение.λ

Чтобы переформулировать цели, я ищу общеприменимый подход для получения доверительного интервала для среднего значения для населения, чтобы

  1. интервал асимметричный, если распределение необработанных данных асимметричное
  2. интервал имеет правильное покрытие в обоих хвостах (например, вероятность ошибки 0,025 в обоих)
  3. процедура не требует от аналитика указывать что-либо о базовом распределении или преобразовании, необходимом для того, чтобы распределение было симметричным

Обратите внимание, что центральная предельная теорема здесь неактуальна; У меня фиксированный небольшой размер выборки, и доверительный интервал должен быть асимметричным, чтобы быть точным в обоих хвостах. Параметрический доверительный интервал на основе в логнормальной модели с и все еще имеет плохое покрытие (ошибка левого хвоста 0,012, справа 0,047, когда оба должны быть 0,025).Tμзнак равно0,σзнак равно1,65Nзнак равно20000

Продолжая думать об этом, есть два широких способа осмысления проблемы, которые я хотел бы обсудить.

  1. Среднее значение не является величиной, которая поддается непараметрическому выводу, по крайней мере, когда требуется точность вывода. Медиана выборки имеет смысл для любого непрерывного распределения, и у нас есть простой точный доверительный интервал для медианы. В выборке размера от нормального распределения доверительного интервал для медианы составляет дольше , чем точный основанных доверительного интервала для среднего значения (см код ниже). Возможно, этот коэффициент в 1,28 является разумной ценой за надежность и полную свободу распределения.Nзнак равно201,28×T
  2. Несмотря на то, что ни один загрузчик не даст адекватно точных пределов достоверности для выборок из крайне искаженных распределений, двойной загрузчик может значительно улучшить покрытие достоверности в обоих хвостах. Nankervis имеет несколько хороших результатов и предоставляет отличный вычислительный алгоритм. Но никакое программное обеспечение, которое я не мог найти, реализует это.

R код, иллюстрирующий 1. выше:

## Exact CI for median from DescTools package SignTest.default
## See also ttp://www.stat.umn.edu/geyer/old03/5102/notes/rank.pdf,
## http://de.scribd.com/doc/75941305/Confidence-Interval-for-Median-Based-on-Sign-Test
cimed <- function(x, alpha=0.05, na.rm=FALSE) {
  if(na.rm) x <- x[! is.na(x)]
  n <- length(x)
  k <- qbinom(p=alpha / 2, size=n, prob=0.5, lower.tail=TRUE)
  ## Actual CL: 1 - 2 * pbinom(k - 1, size=n, prob=0.5) >= 1 - alpha
  sort(x)[c(k, n - k + 1)]
}

n <- 20
m <- 20000
cil <- cilt <- 0
z <- qt(0.975, n - 1)

for(i in 1 : m) {
  x <- rnorm(n)
  cil  <- cil + diff(cimed(x))
  cilt <- cilt + 2 * z * sqrt(var(x) / n)
}
cil  <- cil / m
cilt <- cilt / m

c(cil, cilt, cilt / cil, cil / cilt)
Фрэнк Харрелл
источник
1
Это требует значительных вычислительных ресурсов, но что, если вы взяли эмпирический файл cdf, начали случайным образом генерировать броуновские мосты; каждый броуновский мост представляет собой дельту между ecdf и некоторым гипотетическим cdf. Вычислите среднее значение с использованием гипотетического cdf и взвесьте его с помощью коэффициента, предписанного тестом KS. Повторяя это некоторое время, вы получите взвешенный набор данных и сможете рассчитать доверительный интервал.
Нир Фридман
У меня нет гипотетического cdf. И что произойдет, если вы просто используете верхнюю и нижнюю 0,95 доверительную область от KS и вычислите среднее значение из них, то есть это будет ужасно консервативно.
Фрэнк Харрелл
Гипотетический cdf вводится путем добавления случайно сгенерированного броуновского моста к эмпирическому cdf. Кроме того, я не предлагаю брать средства из региона доверия. Я предлагаю получить много средств, генерируя много гипотетических распределений, соответствующим образом взвешенных, а затем получая доверительный интервал. Это просто другой подход к начальной загрузке, но я думаю, что результат может быть другим.
Нир Фридман
Было бы интересно посмотреть, насколько эффективно это можно запрограммировать и насколько точным является покрытие доверительного интервала. Спасибо за предложение. Интересно, подойдет ли байесовский бутстрап под это. Я попробовал байесовскую загрузку в другом контексте, и она не улучшила охват доверительных интервалов.
Фрэнк Харрелл

Ответы:

11

Я несколько пессимистичен в отношении такого непараметрического метода, по крайней мере, без введения каких-либо ограничений на базовое распределение.

NN

αααNα

Так что, если вы ищете правильное асимптотическое покрытие, конечно, это может быть достигнуто CLT. Тем не менее, ваш вопрос подразумевает, что вы (вполне разумно) заинтересованы в конечном покрытии. Как показывает мой пример, всегда будет патологический случай, который разрушит любую конечную длину CI.

Теперь у вас все еще может быть непараметрический КИ, который обеспечивает хорошее конечное покрытие, добавляя ограничения к вашему дистрибутиву. Например, лог-вогнутое ограничение является непараметрическим ограничением. Однако, это кажется неадекватным для вашей проблемы, так как log-normal не является log-вогнутым.

α

Клифф AB
источник
2
Отличные мысли. Я стесняюсь требовать такого рода ограничений, потому что я вижу бимодальные распределения и другие сложности достаточно часто.
Фрэнк Харрелл
1
@FrankHarrell: была проделана работа с моделями смесей с непараметрическими лог-вогнутыми компонентами. Однако в настоящее время я не могу себе представить, что есть хорошие методы для создания уверенности в общем среднем значении, особенно если количество компонентов не известно заранее.
Клифф AB
2

Одним из основных допущений любого образца является репрезентативность. Чем длиннее хвосты распределения, тем менее вероятно, что любая небольшая выборка будет достаточно репрезентативной для любого метода, чтобы надежно решить для CI, потому что выборка не сможет представить распределение.

Например, запуск простого perc CI в экспоненциальном распределении с размером выборки 250 дает довольно неплохие результаты. Они намного лучше, чем с выборкой 25, хотя все еще не идеальны.

Я согласен с Cliff AB, что не будет общего решения, но вам не нужно выдвигать гипотезы об экстремальных распределениях. Там не будет ничего, что работает широко с небольшими образцами. А в некоторых случаях сэмплы могут быть очень большими (но было бы неплохо ошибаться).

Джон
источник