Предположим, что у нас есть выборки двух независимых случайных величин Бернулли, и .
Как доказать, что
?
Предположим, что .
distributions
sampling
bernoulli-distribution
Старик в море.
источник
источник
Ответы:
Помещенный = √ ,b=√a=θ1(1−θ1)√n1√ ,
A=(ˉX1-θ1)/a,
B=(ˉX2-θ2)/b. Имеем
A→dN(0,1),B→dN(0,1). В терминах характеристических функций это означает, что
ϕA(t)≡Eeb=θ2(1−θ2)√n2√ A=(X¯1−θ1)/a B=(X¯2−θ2)/b A→dN(0,1), B→dN(0,1)
Мы хотим доказать, что
D:= a
Так как и B независимы, φ D ( т ) = φ (A B
как мы желаем, чтобы это было.
Это доказательство неполно. Здесь нужны оценки равномерной сходимости характеристических функций. Однако в рассматриваемом случае мы можем сделать явные вычисления. Положим . ϕ X 1 , 1 ( т )p=θ1, m=n1
Note that similar calculations may be done for arbitrary (not necessarily Bernoulli) distributions with finite second moments, using the expansion of characteristic function in terms of the first two moments.
источник
Proving your statement is equivalent to proving the (Levy-Lindenberg) Central Limit Theorem which states
If{Zi}ni=1 is a sequence of i.i.d random variable with finite mean E(Zi)=μ and finite variance V(Zi)=σ2 then
HereZ¯=∑iZi/n that is the sample variance.
Then it is easy to see that if we put
and
(There's a last passage, and you have to adjust this a bit for the general case wheren1≠n2 but I have to go now, will finish tomorrow or you can edit the question with the final passage as an exercise )
источник