Я перебежать утверждение , что каждый образец самозагрузки (или в мешках дерево) будет содержать в среднем примерно наблюдений.
Я понимаю , что шанс не был выбран в любом из черпает из образцов с замены , которая работает примерно шанс не был выбран.
Что такое математическое объяснение , почему эта формула всегда дает ?
Ответы:
Он не работает при очень малыхn - например, при n=2 , (1−1/n)n=14 . Он проходит 13 при n=6 , проходит 0.35 при n=11 и 0.366 при n=99 . Как только вы выйдете за пределы n=11 , 1e будет лучшим приближением, чем 13 .
Серая пунктирная линия находится в13 ; красно-серая линия находится в 1e .
Вместо того, чтобы показывать формальный вывод (который легко найти), я собираюсь дать план (это интуитивно понятный аргумент), почему (немного) более общий результат имеет место:
(Многие люди принимают это будет определение из , но вы можете доказать это из более простых результатов , таких как определение , как .)exp(x) e limn→∞(1+1/n)n
Факт 1: Это следует из основных результатов о степенях и возведении в степеньexp(x/n)n=exp(x)
Факт 2: Когда большое, Это следует из разложения в ряд для .n exp(x/n)≈1+x/n ex
(Я могу дать более полные аргументы для каждого из них, но я предполагаю, что вы уже знаете их)
Заменить (2) в (1). Выполнено. (Чтобы это работало как более формальный аргумент, потребовалась бы некоторая работа, потому что вам нужно было бы показать, что оставшиеся термины в факте 2 не становятся достаточно большими, чтобы вызвать проблему при переходе к степени . Но это интуиция а не формальное доказательство.)n
[В качестве альтернативы просто возьмите ряд Тейлора для до первого порядка. Второй простой подход состоит в том, чтобы взять биномиальное разложение и взять ограничение по терминам, показывая, что оно дает члены в ряду для .]exp(x/n) (1+x/n)n exp(x/n)
Так что если , просто подставьте .ex=limn→∞(1+x/n)n x=−1
Сразу же у нас есть результат в верхней части этого ответа,limn→∞(1−1/n)n=e−1
Как указывает Ганг в комментариях, результатом вашего вопроса является происхождение правила начальной загрузки 632
например, см.
Efron, B. и R. Tibshirani (1997),
«Усовершенствования перекрестной проверки: метод начальной загрузки .632+»,
журнал Американской статистической ассоциации Vol. 92, № 438. (Jun), с. 548-560.
источник
Точнее, каждый образец начальной загрузки (или дерево в мешках) будет содержать образца.1−1e≈0.632
Давайте рассмотрим, как работает бутстрап. У нас есть оригинальный образец с элементами в нем. Мы рисуем элементы с заменой из этого исходного набора, пока у нас не будет другого набора размера .x1,x2,…xn n n
Из этого следует, что вероятность выбора какого-либо одного предмета (скажем, ) в первом тираже равна . Следовательно, вероятность того, что вы не выберете этот элемент, равна . Это только для первого розыгрыша; Всего существует ничьих, все из которых независимы, поэтому вероятность того, что этот пункт никогда не будет выбран ни в одной из ничьих, равна .x1 1n 1−1n n (1−1n)n
Теперь давайте подумаем о том, что происходит, когда становится все больше и больше. Мы можем взять предел, когда стремится к бесконечности, используя обычные трюки с исчислением (или Wolfram Alpha):n n
Это вероятность того, что предмет не выбран. Вычтите его из единицы, чтобы найти вероятность выбора предмета, что дает 0,632.
источник
Выборка с заменой может быть смоделирована как последовательность биномиальных испытаний, где «успех» является выбранным экземпляром. Для исходного набора данных из экземпляров вероятность «успеха» равна , а вероятность «отказа» равна . Для размера выборки вероятность выбора экземпляра ровно раз определяется биномиальным распределением:n 1/n (n−1)/n b x
В конкретном случае выборки начальной загрузки размер выборки равен числу экземпляров . Позволяя приближаться к бесконечности, мы получаем:b n n
Если наш исходный набор данных большой, мы можем использовать эту формулу для вычисления вероятности того, что экземпляр будет выбран ровно раз в образце начальной загрузки. Для вероятность составляет или примерно . Таким образом, вероятность выборки экземпляра хотя бы один раз составляет .x x=0 1/e 0.368 1−0.368=0.632
Само собой разумеется, я кропотливо получил это, используя ручку и бумагу, и даже не думал об использовании Wolfram Alpha.
источник
Просто добавив к ответу @ retsreg, это также можно легко продемонстрировать с помощью численного моделирования в R:
источник
Это можно легко увидеть, считая. Сколько всего возможных образцов? п ^ п. Сколько НЕ содержит определенного значения? (П-1) ^ п. Вероятность того, что образец не имеет определенного значения - (1-1 / n) ^ n, что составляет около 1/3 в пределе.
источник