Суммируем поток случайных величин: ; пусть будет числом слагаемых, которое нам нужно, чтобы сумма превысила единицу, т. е. - наименьшее число, такое, чтоY Y
Почему среднее значение равно постоянной Эйлера ?е
Суммируем поток случайных величин: ; пусть будет числом слагаемых, которое нам нужно, чтобы сумма превысила единицу, т. е. - наименьшее число, такое, чтоY Y
Почему среднее значение равно постоянной Эйлера ?е
Ответы:
Первое наблюдение: уY есть более приятный CDF, чем PMF
Массовая функция вероятностиpY(n) - это вероятность того, что n «достаточно» для того, чтобы сумма превысила единицу, то есть X1+X2+…Xn превышает единицу, тогда как X1+⋯+Xn−1 делает не.
Кумулятивное распределение просто требует, чтобы n было «достаточно», т. Е. I n i = 1 X i > 1 без ограничения на сколько. Это выглядит как гораздо более простое событие, чтобы справиться с вероятностью.FY(n)=Pr(Y≤n) n ∑ni=1Xi>1
Второе наблюдение: принимает неотрицательные целочисленные значения, поэтому E ( Y ) можно записать в терминах CDFY E(Y)
Ясно , что может принимать только значения в { 0 , 1 , 2 , ... } , так что мы можем написать его среднее с точки зрения дополнительного КОР , ··· F Y .Y {0,1,2,…} F¯Y
На самом деле и Pr ( Y = 1 ) оба равны нулю, поэтому первые два члена E ( Y ) = 1 + 1 + … .Pr(Y=0) Pr(Y=1) E(Y)=1+1+…
Что касается более поздних сроках, если вероятность того, что Σ п я = 1 X я > 1 , какое событие является ˉ F Y ( п ) вероятность?FY(n) ∑ni=1Xi>1 F¯Y(n)
Третье наблюдение: (гипер) объем симплекса равен 1n 1n!
симплекс я имею в виду , занимает объем при в стандартных единицах ( п - 1 ) симплекс в все-инфицированного ортантом из R п : это выпуклая оболочка ( п + 1 ) вершин, в частности , происхождение плюс вершины единичного ( n - 1 ) -симплекса в ( 1 , 0 , 0 , … ) , ( 0 , 1 , 0 , …n (n−1) Rn (n+1) (n−1) (1,0,0,…) и т. д.(0,1,0,…)
Например, вышеприведенный 2-симплекс с имеет площадь 1x1+x2≤1 и 3-симплекс сx1+x2+x3≤1имеет объем112 x1+x2+x3≤1 .16
Для доказательства того, что происходит путем оценки непосредственно интеграл для вероятности события , описываемого , а также ссылки на два других аргументов см это Math SE нить . Связанный поток также может представлять интерес: существует ли связь между e и суммой объемов n- симплексов?F¯Y(n) e n
источник
Зафиксируйте . Пусть U i = X 1 + X 2 + ⋯ + X in≥1 - дробные части частичных сумм для i = 1 , 2 , … , n . Независимая однородность X 1 и X i + 1 гарантирует, что U i + 1 с такой же вероятностью будет превышать U i, как и меньше его. Это означает, чтовсе п ! упорядочения последовательности ( U i ) одинаково вероятны.
Учитывая последовательность , мы можем восстановить последовательность X 1 , X 2 , … , X n . Чтобы увидеть, как, обратите внимание, чтоU1,U2,…,Un X1,X2,…,Xn
потому что оба находятся между 0 и 1 .U1=X1 0 1
Если , то X i + 1 = U i + 1 - U i .Ui+1≥Ui Xi+1=Ui+1−Ui
В противном случае , откуда X i + 1 = U i + 1 - U i + 1 .Ui+Xi+1>1 Xi+1=Ui+1−Ui+1
Существует ровно одна последовательность, в которой уже находятся в возрастающем порядке, и в этом случае 1 > U n = X 1 + X 2 + ⋯ + X n . Быть одним из п ! одинаково вероятные последовательности, у этого есть шанс 1 / n ! происходящего. Во всех других последовательностях по меньшей мере один шаг от U i до U i + 1 не в порядке. Это означает, что сумма X я должен был равняться или превышать 1Ui 1>Un=X1+X2+⋯+Xn n! 1/n! Ui Ui+1 Xi 1 , Таким образом, мы видим, что
Это дает вероятности для всего распределения , так как для интеграла n ≥ 1Y n≥1
Более того,
QED.
источник
In Sheldon Ross' A First Course in Probability there is an easy to follow proof:
Modifying a bit the notation in the OP,Ui∼iidU(0,1) and Y the minimum number of terms for U1+U2+⋯+UY>1 , or expressed differently:
If instead we looked for:
We can apply the following general properties for continuous variables:
to expressf(u) conditionally on the outcome of the first uniform, and getting a manageable equation thanks to the pdf of X∼U(0,1) , fY(y)=1. This would be it:
If theU1=x we are conditioning on is greater than u , i.e. x>u , E[Y(u)|U1=x]=1. If, on the other hand, x<u , E[Y(u)|U1=x]=1+f(u−x) , because we already have drawn 1 uniform random, and we still have the difference between x and u to cover. Going back to equation (1):
If we differentiate both sides of this equation, we can see that:
with one last integration we get:
We know that the expectation that drawing a sample from the uniform distribution and surpassing0 is 1 , or f(0)=1 . Hence, k=1 , and f(u)=eu . Therefore f(1)=e.
источник