Равномерная случайная величина как сумма двух случайных величин

18

Взято из Гриммета и Штирзакера :

Покажите, что это не может быть случай, когда где равномерно распределены по [0,1], а и независимы и одинаково распределены. Вы не должны считать , что X и Y являются непрерывными переменными.U = X + Y U=X+YU UX XYY

Простое доказательство от противного достаточно для случая, когда , предполагаются дискретными, утверждая, что всегда можно найти такие и , что в то время как .X XY Yu uu u P ( U u + u ) P ( U u ) P(Uu+u)P(Uu)P ( X + Y u ) = P ( X + Y u + u )P(X+Yu)=P(X+Yu+u)

Однако это доказательство не распространяется на является абсолютно непрерывным или сингулярно непрерывным. Подсказки / Комментарии / критика?X , YX,Y

rightskewed
источник
3
Подсказка : характерные функции ваших друзей.
кардинал
1
X и Y одинаковы, поэтому их характерные функции должны быть идентичны. Вам нужно использовать характеристическую функцию, а не функцию, генерирующую момент - мгф не гарантированно существует для X, поэтому показание mgf имеет невозможное свойство, не означает, что такого X нет. Все RV имеют характеристическую функцию, так что если вы покажете, что обладаете невозможным свойством, то такого X нет.
Silverfish
1
Если в распределениях XX и YY есть атомы , скажем, что P { X = a } = P { Y = a } = b > 0P{X=a}=P{Y=a}=b>0 , то P { X + Y = 2 a } b 2 > 0P{X+Y=2a}b2>0 и, следовательно, X + YX+Y не может быть равномерно распределено на [ 0 , 1 ][0,1], Таким образом, нет необходимости рассматривать случай распределений XX и Y,Y имеющих атомы.
Дилип Сарватэ

Ответы:

13

Результат можно подтвердить с помощью рисунка: видимые серые области показывают, что равномерное распределение не может быть разложено как сумма двух независимых одинаково распределенных переменных.

нотация

Пусть XX и YY такие, что X + YX+Y имеет равномерное распределение на [ 0 , 1 ][0,1] . Это означает, что для всех 0 a b 10ab1 ,

Pr ( a < X + Y b ) = b - a .

Pr(a<X+Yb)=ba.

Существенная поддержка общего распределения X и Y , следовательно, [ 0 , 1 / 2 ] (в противном случае был бы положительная вероятность того, что Х + Y лежит вне [ 0 , 1 ] ).XY[0,1/2]X+Y[0,1]

Изображение

Пусть 0 < ε < +1 / 4 . Рассмотрим эту диаграмму, показывающую, как вычисляются суммы случайных величин:0<ϵ<1/4

Figure

Основное распределение вероятностей является совместным для ( X , Y ) . Вероятность любого события a < X + Y b определяется общей вероятностью, покрытой диагональной полосой, растянутой между линиями x + y = a и x + y = b . Показаны три такие полосы: от 0 до ϵ , выглядящие как маленький синий треугольник в левом нижнем углу; от 1 / 2 - е на 1 / 2(X,Y)a<X+Ybx+y=ax+y=b0ϵ1/2ϵ+ ϵ , показанный в виде серого прямоугольника с двумя (желтым и зеленым) треугольниками; и от 1 - е к 1 , появляется в виде небольшого красного треугольника в верхнем правом углу.1/2+ϵ1ϵ1

Что показывает картинка

Сравнивая нижний левый треугольник на рисунке с нижним левым квадратом, содержащим его, и используя предположение iid для X и Y , становится ясно, чтоXY

& epsi ; = Pr ( Х + Y ≤ & epsi ; ) < Рг ( Х & le ; & epsi ; ) Pr ( Y ≤ & epsi ; ) = Pr ( Х & le ; & epsi ; ) 2 .

ϵ=Pr(X+Yϵ)<Pr(Xϵ)Pr(Yϵ)=Pr(Xϵ)2.

Обратите внимание, что неравенство строгое: равенство невозможно, поскольку существует некоторая положительная вероятность того, что и X, и Y меньше ϵ, но, тем не менее, X + Y > ϵ .XYϵX+Y>ϵ

Аналогично, сравнивая красный треугольник с квадратом в верхнем правом углу,

ε = Pr ( Х + Y > 1 - ε ) < Рг ( Х > 1 / 2 - ε ) 2 .

ϵ=Pr(X+Y>1ϵ)<Pr(X>1/2ϵ)2.

Наконец, сравнение двух противоположных треугольников в верхнем левом и нижнем правом углу с диагональной полосой, содержащей их, дает другое строгое неравенство,

2 & epsi ; < 2 Рг ( Х ≤ & epsi ; ) Рг ( Х > 1 / 2 - & epsi ; ) < Рг ( 1 / 2 - & epsi ; < Х + Y 1 / 2 + & epsi ; ) = 2 & epsi ; .

2ϵ<2Pr(Xϵ)Pr(X>1/2ϵ)<Pr(1/2ϵ<X+Y1/2+ϵ)=2ϵ.

Первое неравенство вытекает из двух предыдущих (взять их квадратные корни и умножить их) , а второй описывает (строгое) включение треугольников в пределах полосы и последнее равенство выражает однородность X + Y . Вывод о том, что 2 ϵ < 2 ϵ является противоречием, доказывающим, что такие X и Y не могут существовать, QED .X+Y2ϵ<2ϵXY

Whuber
источник
3
(+1) Мне нравится этот подход. Когда я вытащил свою заднюю часть конверта из корзины для бумаг, я вижу, что нарисовал ту же диаграмму, за исключением того, что я не отметил желтые и зеленые треугольники внутри полосы. Я получил неравенства для синих и красных треугольников. Я поиграл с ними и с несколькими другими вероятностями, но никогда не думал о том, чтобы исследовать вероятность появления полосы, которая оказывается критическим шагом. Интересно, какой мыслительный процесс мог мотивировать это понимание?
Серебряная рыба
Фактически, где у @whuber есть желтые и зеленые треугольники, я рисовал на квадратах (я фактически разложил [ 0 , 0.5 ] 2 в сетку). Глядя на шаг , который "описывает (строгое) включение треугольников в полосе", 2 Pr ( Х ≤ & epsi ; ) Рг ( Х > 1 / 2 - е ) < Pr ( 1 / 2 - & epsi ; < Х + Y 1 / 2 + ε )[0,0.5]22Pr(Xϵ)Pr(X>1/2ϵ)<Pr(1/2ϵ<X+Y1/2+ϵ)Интересно, будет ли это на самом деле геометрически более естественным с квадратами, перекрывающими полосу, чем с треугольниками?
Серебряная рыба
1
@Silver I was reminded of an analysis of sums of uniform distributions I posted a couple of years ago. That suggested visualizing the sum X+YX+Y geometrically. It was immediately evident that a lot of probability had to be concentrated near the corners (0,0)(0,0) and (1/2,1/2)(1/2,1/2) in order for the sum to be uniform and for relatively little probability to be near the center diagonal X+Y=1/2X+Y=1/2. That led to the diagram, which I redrew in Mathematica. At that point the answer wrote itself. Yes, using squares in the center band might be neater.
whuber
Thanks! "Note that the inequality is strict: equality is not possible because there is some positive probability that either of XX or YY is less than ϵϵ but nevertheless X+Y>ϵX+Y>ϵ." I'm not sure I follow this. It seems to me the aim here is to show Pr(X+Yϵ)<Pr(XϵYϵ)Pr(X+Yϵ)<Pr(XϵYϵ), doesn't this require a positive probability for some event AA in which both of XX and YY are less than or equal to ϵϵ and yet X+Y>ϵX+Y>ϵ? It is the "either of" vs "both of" I'm vacillating over.
Silverfish
@Silverfish Thank you; I did not express that as I had intended. You are correct: the language is intended essentially to describe the portion of a little square not inside the triangle.
whuber
10

I tried finding a proof without considering characteristic functions. Excess kurtosis does the trick. Here's the two-line answer: Kurt(U)=Kurt(X+Y)=Kurt(X)/2Kurt(U)=Kurt(X+Y)=Kurt(X)/2 since XX and YY are iid. Then Kurt(U)=1.2Kurt(U)=1.2 implies Kurt(X)=2.4Kurt(X)=2.4 which is a contradiction as Kurt(X)2Kurt(X)2 for any random variable.

Rather more interesting is the line of reasoning that got me to that point. XX (and YY) must be bounded between 0 and 0.5 - that much is obvious, but helpfully means that its moments and central moments exist. Let's start by considering the mean and variance: E(U)=0.5E(U)=0.5 and Var(U)=112Var(U)=112. If XX and YY are identically distributed then we have:

E(X+Y)=E(X)+E(Y)=2E(X)=0.5

E(X+Y)=E(X)+E(Y)=2E(X)=0.5

So E(X)=0.25E(X)=0.25. For the variance we additionally need to use independence to apply:

Var(X+Y)=Var(X)+Var(Y)=2Var(X)=112

Var(X+Y)=Var(X)+Var(Y)=2Var(X)=112

Hence Var(X)=124Var(X)=124 and σX=1260.204σX=1260.204. Wow! That is a lot of variation for a random variable whose support ranges from 0 to 0.5. But we should have expected that, since the standard deviation isn't going to scale in the same way that the mean did.

Now, what's the largest standard deviation that a random variable can have if the smallest value it can take is 0, the largest value it can take is 0.5, and the mean is 0.25? Collecting all the probability at two point masses on the extremes, 0.25 away from the mean, would clearly give a standard deviation of 0.25. So our σXσX is large but not impossible. (I hoped to show that this implied too much probability lay in the tails for X+YX+Y to be uniform, but I couldn't get anywhere with that on the back of an envelope.)

Second moment considerations almost put an impossible constraint on XX so let's consider higher moments. What about Pearson's moment coefficient of skewness, γ1=E(XμX)3σ3X=κ3κ3/22γ1=E(XμX)3σ3X=κ3κ3/22? This exists since the central moments exist and σX0σX0. It is helpful to know some properties of the cumulants, in particular applying independence and then identical distribution gives:

κi(U)=κi(X+Y)=κi(X)+κi(Y)=2κi(X)

κi(U)=κi(X+Y)=κi(X)+κi(Y)=2κi(X)

This additivity property is precisely the generalisation of how we dealt with the mean and variance above - indeed, the first and second cumulants are just κ1=μκ1=μ and κ2=σ2κ2=σ2.

Then κ3(U)=2κ3(X)κ3(U)=2κ3(X) and (κ2(U))3/2=(2κ2(X))3/2=23/2(κ2(X))3/2(κ2(U))3/2=(2κ2(X))3/2=23/2(κ2(X))3/2. The fraction for γ1γ1 cancels to yield Skew(U)=Skew(X+Y)=Skew(X)/2Skew(U)=Skew(X+Y)=Skew(X)/2. Since the uniform distribution has zero skewness, so does XX, but I can't see how a contradiction arises from this restriction.

So instead, let's try the excess kurtosis, γ2=κ4κ22=E(XμX)4σ4X3γ2=κ4κ22=E(XμX)4σ4X3. By a similar argument (this question is self-study, so try it!), we can show this exists and obeys:

Kurt(U)=Kurt(X+Y)=Kurt(X)/2

Kurt(U)=Kurt(X+Y)=Kurt(X)/2

The uniform distribution has excess kurtosis 1.21.2 so we require XX to have excess kurtosis 2.42.4. But the smallest possible excess kurtosis is 22, which is achieved by the Binomial(1,12)Binomial(1,12) Bernoulli distribution.

Silverfish
источник
2
(+1) This is a quite clever approach, which was new to me. Thanks. Note that some of your analysis could have been streamlined by considering a uniform centered at zero. (The equivalence of the problem is immediate.) That would have immediately told you that considering skew was a dead-end.
cardinal
@cardinal: I knew the skew was a dead-end before I worked on it. The purpose was expository: it's a self-study question so I didn't want to solve it in full! Rather I wanted to leave a hint on how to deal with the next level up...
Silverfish
@cardinal: I was in two minds whether to center or not. I did back-of-envelope calculations more conveniently, but in the final analysis we just need (1) a simple case of the general result that Kurt(X1+...+Xn)=1nKurt(X)Kurt(X1+...+Xn)=1nKurt(X) for iid XiXi, (2) that Kurt(U)=1.2Kurt(U)=1.2 for any uniform distribution, and (3) Kurt(X)Kurt(X) exists since XX is bounded and σX0σX0 (which is trivial, else σU=0σU=0). So none of the key results actually required centering, though bits may have looked less ugly!
Silverfish
Yes, the word "streamlined" was carefully chosen. :-) I did not intend my comment to be read as criticism of your exposition. Cheers.
cardinal
@cardinal Incidentally, variance considerations alone almost worked, but the uniform isn't quite spread out enough. With a bit more probability mass nearer the extremes, e.g. fT(t)=12t2fT(t)=12t2 on [-0.5, 0.5], then Var(T)=.15 and if T=X1+X2 then σX=.15/20.27>0.25 which is impossible as X is bounded by -0.25 and 0.25. Of course, you will see immediately how this relates to the present example! I wonder if the approach generalises, I'm sure other bounded RVs can't be decomposed into sums but require even higher moments investigated to find the contradiction.
Silverfish