Очень простая версия центральной ограниченной теоремы, приведенная ниже есть CLT Линдеберга – Леви. Я не понимаю, почему на левой стороне руки есть . А Ляпуновский CLT говорит но почему не \ sqrt {s_n} ? Кто-нибудь скажет мне, что это за факторы, такие как \ sqrt {n} и \ frac {1} {s_n} ? как мы получаем их в теореме?√n ( ( 1n n ∑ i=1Xi)-μ) d → N(0, σ 2 )
central-limit-theorem
intuition
Летающая свинья
источник
источник
Ответы:
Хороший вопрос (+1) !!
Вы помните, что для независимых случайных величин и , и . Таким образом, дисперсия равна , а дисперсия ˉ X = 1XX YY Var(X+Y)=Var(X)+Var(Y)Var(X+Y)=Var(X)+Var(Y) Var(a⋅X)=a2⋅Var(X)Var(a⋅X)=a2⋅Var(X) ∑ni=1Xi∑ni=1Xi ∑ni=1σ2=nσ2∑ni=1σ2=nσ2 n ∑ n i = 1 XiX¯=1n∑ni=1Xi являетсяnσ2/n2=σ2/nnσ2/n2=σ2/n .
Это для дисперсии . Чтобы стандартизировать случайную величину, вы делите ее на стандартное отклонение. Как известно, ожидаемое значение ˉ XX¯ равно μμ , поэтому переменная
ˉ X -E( ˉ X )√V a r ( ˉ X ) =√n ˉ X - μσ
Что касается вашего второго пункта, я полагаю, что приведенное выше уравнение показывает, что вы должны делить на σ,σ а не на √σσ−−√ стандартизировать уравнение, объясняя, почему вы используетеsnsn (оценщикσ),σ) а не √с нsn−−√ .
Дополнение: @whuber предлагает обсудить причину масштабирования √пn−−√ . Он делает этотам, но поскольку ответ очень длинный, я попытаюсь уловить суть его аргумента (который является реконструкцией мыслей де Мойвра).
Если вы добавите большое число nn из +1 и -1, вы можете приблизить вероятность того, что сумма будет j,j путем элементарного подсчета. Лог этой вероятности пропорционален - j 2 / n−j2/n . Поэтому, если мы хотим, чтобы приведенная выше вероятность сходилась к константе, когда nn становится большим, мы должны использовать нормирующий множитель в O ( √н )O(n−−√) .
Using modern (post de Moivre) mathematical tools, you can see the approximation mentioned above by noticing that the sought probability is
P(j)=(nn/2+j)2n=n!2n(n/2+j)!(n/2−j)!
which we approximate by Stirling's formula
P(j)≈nnen/2+jen/2−j2nen(n/2+j)n/2+j(n/2−j)n/2−j=(11+2j/n)n+j(11−2j/n)n−j.
log(P(j))=−(n+j)log(1+2j/n)−(n−j)log(1−2j/n)∼−2j(n+j)/n+2j(n−j)/n∝−j2/n.
источник
There is a nice theory of what kind of distributions can be limiting distributions of sums of random variables. The nice resource is the following book by Petrov, which I personally enjoyed immensely.
It turns out, that if you are investigating limits of this type 1ann∑i=1Xn−bn,(1)
There is a lot of mathematics going around then, which boils to several theorems which completely characterizes what happens in the limit. One of such theorems is due to Feller:
Theorem Let {Xn;n=1,2,...}{Xn;n=1,2,...} be a sequence of independent random variables, Vn(x)Vn(x) be the distribution function of XnXn , and anan be a sequence of positive constant. In order that
max1≤k≤nP(|Xk|≥εan)→0, for every fixed ε>0
and
supx|P(a−1nn∑k=1Xk<x)−Φ(x)|→0
it is necessary and sufficient that
n∑k=1∫|x|≥εandVk(x)→0 for every fixed ε>0,
a−2nn∑k=1(∫|x|<anx2dVk(x)−(∫|x|<anxdVk(x))2)→1
and
a−1nn∑k=1∫|x|<anxdVk(x)→0.
This theorem then gives you an idea of what anan should look like.
The general theory in the book is constructed in such way that norming constant is restricted in any way, but final theorems which give necessary and sufficient conditions, do not leave any room for norming constant other than √nn−−√ .
источник
snn represents the sample standard deviation for the sample mean. snn 22 is the sample variance for the sample mean and it equals Snn 22 /n. Where Snn 22 is the sample estimate of the population variance. Since snn =Snn /√n that explains how √n appears in the first formula. Note there would be a σ in the denominator if the limit were
N(0,1) but the limit is given as N(0, σ22 ). Since Snn is a consistent estimate of σ it is used in the secnd equation to taken σ out of the limit.
источник
Intuitively, if Zn→N(0,σ2)Zn→N(0,σ2) for some σ2σ2 we should expect that Var(Zn)Var(Zn) is roughly equal to σ2σ2 ; it seems like a pretty reasonable expectation, though I don't think it is necessary in general. The reason for the √nn−−√ in the first expression is that the variance of ˉXn−μX¯n−μ goes to 00 like 1n1n and so the √nn−−√ is inflating the variance so that the expression just has variance equal to σ2σ2 . In the second expression, the term snsn is defined to be √∑ni=1Var(Xi)∑ni=1Var(Xi)−−−−−−−−−−−√ while the variance of the numerator grows like ∑ni=1Var(Xi)∑ni=1Var(Xi) , so we again have that the variance of the whole expression is a constant (1 in this case).
Essentially, we know something "interesting" is happening with the distribution of ˉXn:=1n∑iXi, but if we don't properly center and scale it we won't be able to see it. I've heard this described sometimes as needing to adjust the microscope. If we don't blow up (e.g.) ˉX−μ by √n then we just have ˉXn−μ→0 in distribution by the weak law; an interesting result in it's own right but not as informative as the CLT. If we inflate by any factor an which is dominated by √n, we still get an(ˉXn−μ)→0 while any factor an which dominates √n gives an(ˉXn−μ)→∞. It turns out √n is just the right magnification to be able to see what is going on in this case (note: all convergence here is in distribution; there is another level of magnification which is interesting for almost sure convergence, which gives rise to the law of iterated logarithm).
источник