Один наивный метод для аппроксимации нормального распределения состоит в том, чтобы сложить, возможно, случайных величин IID, равномерно распределенных по , затем пересчитать их и изменить масштаб, полагаясь на Центральную предельную теорему. ( Примечание : существуют более точные методы, такие как преобразование Бокса – Мюллера .) Сумма IID случайных величин ( 0 , 1 ) известна как равномерное распределение суммы или распределениеИрвина-Холла.
Насколько велика ошибка в приближении равномерного распределения суммы нормальным распределением?
Всякий раз, когда этот тип вопроса подходит для аппроксимации суммы случайных величин IID, люди (включая меня) поднимают теорему Берри – Эссеена , которая является эффективной версией центральной теоремы о пределе, учитывая, что существует третий момент:
где - кумулятивная функция распределения для пересчитанной суммы случайных величин IID, - абсолютный третий центральный момент , представляет собой стандартное отклонение, а является абсолютной константой , которая может быть принята равной или даже .
Это неудовлетворительно. Мне кажется, что оценка Берри – Эссеена наиболее близка к точной на биномиальных распределениях, которые являются дискретными, с наибольшей ошибкой при для симметричного биномиального распределения. Самая большая ошибка происходит при самом большом прыжке. Однако равномерное распределение суммы не имеет скачков.
Численные тесты показывают, что ошибка уменьшается быстрее, чем .
Используя , оценка Берри-Эссеена является | F n ( x ) - Φ ( x ) | ≤ 1
что для составляет около 0,205 , 0,145 и 0,103 соответственно. Фактические максимальные различия для n = 10 , 20 , 40, по- видимому, составляют около 0,00281 , 0,00139 и 0,000692 , соответственно, которые намного меньше и, по-видимому, уменьшаются как c / n вместо c / √ .
Ответы:
Пусть будут U ( - b , b ) случайными величинами и рассмотрим нормированную сумму S n = √U1,U2,… U(−b,b)
И связанныйним SUP нормой
δ п = вир х ∈ R | F n ( x ) - Φ ( x ) |
Proof. See J. V. Uspensky (1937), Introduction to mathematical probability, New York: McGraw-Hill, p. 305.
This was later improved by R. Sherman to the following.
Lemma 2 (Sherman): The following improvement on the Uspensky bound holds.
Proof: See R. Sherman, Error of the normal approximation to the sum of N random variables, Biometrika, vol. 58, no. 2, 396–398.
The proof is a pretty straightforward application of the triangle inequality and classical bounds on the tail of the normal distribution and on(sinx)/x applied to the characteristic functions of each of the two distributions.
источник