Дисперсия ограниченной случайной величины

22

Предположим, что случайная величина имеет нижнюю и верхнюю границы [0,1]. Как рассчитать дисперсию такой переменной?

Петр
источник
8
То же самое, что и для неограниченной переменной - установка границ интегрирования или суммирования соответствующим образом.
Scortchi - Восстановить Монику
2
Как сказал @ Scortchi. Но мне любопытно, почему вы подумали, что это может быть иначе?
Питер Флом - Восстановить Монику
3
Если вы ничего не знаете о переменной (в этом случае верхняя граница дисперсии может быть вычислена из существования границ), почему факт, что она ограничена, входит в расчет?
Glen_b
6
Полезным верхняя граница дисперсии случайной переменной , которая принимает значения в [a,b] с вероятностью 1 является (ba)2/4 , и достигается за счет дискретной случайной переменной , которая принимает значения a и b с равными вероятность 12 . Еще один момент, о котором следует помнить, это то, что дисперсия гарантированно существует, тогда как неограниченная случайная величина может не иметь дисперсии (некоторые, такие как случайные величины Коши, даже не имеют среднего значения).
Дилип Сарвате
7
Там вне дискретная случайная величина, дисперсия равна (ba)24 точно:случайная величина, которая принимает значенияaиbс равной вероятностью12 . Итак, по крайней мере, мы знаем, что универсальная верхняя граница дисперсии не может быть меньше, чем(ba)24 .
Дилип Сарват

Ответы:

46

Вы можете доказать неравенство Поповичу следующим образом. Используйте обозначение m=infX и M=supX . Определите функцию g помощью

g(t)=E[(Xt)2].
Вычисление производнойg и решение
g(t)=2E[X]+2t=0,
gt=E[X]g>0

Теперь рассмотрим значение функции в специальной точке . Должно быть так, что Но Поскольку и , мы имеем подразумевая, что gt=M+m2

Var[X]=g(E[X])g(M+m2).
g(M+m2)=E[(XM+m2)2]=14E[((Xm)+(XM))2].
Xm0XM0
((Xm)+(XM))2((Xm)(XM))2=(Mm)2,
14E[((Xm)+(XM))2]14E[((Xm)(XM))2]=(Mm)24.
V a r [ X ] ( M - m ) 2 Таким образом, мы доказали неравенство Поповичу
Var[X](Mm)24.

Zen
источник
3
Хороший подход: приятно видеть строгие демонстрации подобных вещей.
whuber
22
+1 Здорово! Я изучал статистику задолго до того, как компьютеры были в моде, и одна идея, которая была пробурена в нас, заключалась в том, что что позволило рассчитать дисперсию путем нахождения суммы квадратов отклонений от любой удобной точки а затем с учетом поправки. Здесь, конечно, это тождество дает простое доказательство того, что имеет минимальное значение при без необходимости производных и т. Д. t g ( t ) t = μ
E[(Xt)2]=E[((Xμ)(tμ))2]=E[(Xμ)2]+(tμ)2
tg(t)t=μ
Dilip Sarwate
18

Пусть - распределение на . Покажем , что если дисперсия максимальна, то не может иметь не поддерживает в салоне, откуда следует , что является Бернулли , а остальное тривиально.[ 0 , 1 ] F F FF[0,1]FFF

В качестве примечания, пусть будет й необработанный момент (и, как обычно, мы пишем и для дисперсии).k F μ = μ 1 σ 2 = μ 2 - μ 2μКзнак равно01ИксКdF(Икс)КFμзнак равноμ1σ2знак равноμ2-μ2

Мы знаем, что не имеет всей своей поддержки в одной точке ( в этом случае дисперсия минимальна ). Среди прочего это означает, что лежит строго между и . Чтобы рассуждать от противного, предположим, что во внутреннем пространстве имеется некоторое измеримое подмножество для которого . Без потери общности мы можем предположить (изменяя на если это необходимо), что : другими словами, получается путем обрезания любого часть выше среднего иμ 0 1 I ( 0 , 1 ) F ( I ) > 0 X 1 - X F ( J = I ( 0 , μ ] ) > 0 J I JFμ01я(0,1)F(я)>0Икс1-ИксF(Jзнак равноя(0,μ])>0JяJ имеет положительную вероятность.

Давайте изменим на , взяв всю вероятность из и поместив ее в . F J 0 FF'J0 При этом меняется наμК

μК'знак равноμК-JИксКdF(Икс),

Для обозначения, давайте напишем для таких интегралов, откуда[г(Икс)]знак равноJг(Икс)dF(Икс)

μ2'знак равноμ2-[Икс2],μ'знак равноμ-[Икс],

Рассчитать

σ2=μ2μ2=μ2[x2](μ[x])2=σ2+((μ[x][x2])+(μ[x][x]2)).

Второй член в правой части , , не является отрицательным , потому что всюду на . Первый член справа можно переписатьμ x J(μ[x][x]2)μxJ

μ[x][x2]=μ(1[1])+([μ][x][x2]).

Первое слагаемое справа строго положительно, потому что (a) и (b) потому что мы предполагали, что не сконцентрировано в точке. Второе слагаемое неотрицательно, потому что его можно переписать как и это подынтегральное выражение неотрицательно из предположений на и . Отсюда следует, что .[ 1 ] = F ( J ) < 1 F [ ( μ - x ) ( x ) ] μ x J 0 x 1 σ 2 - σ 2 > 0μ>0[1]=F(J)<1F[(μx)(x)]μxJ0x1σ2σ2>0

Мы только что показали, что в наших предположениях изменение на строго увеличивает его дисперсию. Единственный способ, которым это не может произойти, - это когда вся вероятность сконцентрирована в конечных точках и с (скажем) значениями и соответственно. Его дисперсия легко вычисляется равной которая максимальна, когда и равна там.F ' Р ' 0 1 1 - р р р ( 1 - р ) р = 1 / 2 1 / 4FF F011ppp(1p)p=1/21/4

Теперь, когда - это распределение на , мы перенастраиваем его и масштабируем до распределения на . Повторное центрирование не изменяет дисперсию, тогда как масштабирование делит ее на . Таким образом, с максимальной дисперсией на соответствует распределению с максимальной дисперсией на : следовательно, это распределение Бернулли масштабированное и переведенное в имеющее дисперсию 2/4 , QED .[ , Ь ] [ 0 , 1 ] ( б - ) 2 Р [ , Ь ] [ 0 , 1 ] ( 1 / 2 ) [ , Ь ] ( Ь - ) 2 / 4F[a,b][0,1](ba)2F[a,b][0,1](1/2)[a,b](ba)2/4

Whuber
источник
Интересно, whuber. Я не знал этого доказательства.
Дзен
6
@Zen Это ни в коем случае не так элегантно, как у тебя. Я предложил это, потому что на протяжении многих лет я так думал, сталкиваясь с гораздо более сложными неравенствами в распределении: я спрашиваю, как можно сместить вероятность, чтобы сделать неравенство более экстремальным. Как интуитивный эвристик это полезно. Используя подходы, подобные изложенному здесь, я подозреваю, что общая теория для доказательства большого класса таких неравенств может быть получена с неким гибридным вкусом вариационного исчисления и (конечномерных) методов множителей Лагранжа.
whuber
Отлично: ваш ответ важен, потому что он описывает более общую технику, которая может использоваться для решения многих других случаев.
Дзен
@whuber сказал: «Я спрашиваю, как можно изменить вероятность, чтобы сделать неравенство более экстремальным». - это, кажется, естественный способ думать о таких проблемах.
Glen_b
Кажется, в выводе есть несколько ошибок. Это должно бытьКроме того, не равно поскольку не совпадает с[ ( μ - x ) ( x ) ] [ μ ] [ x ] - [ x 2 ] [ μ ] [
μ[Икс]-[Икс2]знак равноμ(1-[1])[Икс]+([μ][Икс]-[Икс2]),
[(μ-Икс)(Икс)][μ][Икс]-[Икс2]μ [ x ][μ][Икс]μ[Икс]
Лео
13

Если случайная величина ограничена и мы знаем среднее значение , дисперсия ограничена .μ = E [ X ] ( b - μ ) ( μ - a )[a,б]μзнак равноЕ[Икс](б-μ)(μ-a)

Рассмотрим сначала случай . Отметим, что для всех , , поэтому также . Используя этот результат, x [ 0 , 1 ] x 2x E [ X 2 ] E [ X ] σ 2 = E [ X 2 ] - ( E [ X ] 2 ) = E [ X 2 ] - μ 2μ - μ 2 = μ (aзнак равно0,бзнак равно1Икс[0,1]x2xE[X2]E[X]

σ2=E[X2](E[X]2)=E[X2]μ2μμ2=μ(1μ).

Чтобы обобщить интервалы с , рассмотрим ограниченный . Определите , который ограничен в . Эквивалентно, , и, таким образом, где неравенство основано на первом результате. Теперь, подставив , граница равна которое является желаемым результатом.b > a Y [ a , b ] X = Y - a[a,b]b>aY[a,b]X=YabaY = ( b - a ) X + a V a r [ Y ] = ( b - a ) 2 V a r [ X ] ( b - a ) 2 μ X ( 1 - μ X ) . μ X = μ Y - a[0,1]Yзнак равно(б-a)Икс+a

Вaр[Y]знак равно(б-a)2Вaр[Икс](б-a)2μИкс(1-μИкс),
(б-а)2μИксзнак равноμY-aб-a
(б-a)2μY-aб-a(1-μY-aб-a)знак равно(б-a)2μY-aб-aб-μYб-aзнак равно(μY-a)(б-μY),
Юхо Коккала
источник
8

По запросу @ user603 ....

σ2[a,б]1σ2(б-a)24aзнак равно0,бзнак равно1aб12(б-a)24

Еще один момент, о котором следует помнить: ограниченная случайная величина имеет конечную дисперсию, тогда как для неограниченной случайной величины эта дисперсия может быть не конечной, а в некоторых случаях может даже не быть определяемой. Например, среднее не может быть определено для случайных величин Коши , и поэтому невозможно определить дисперсию (как ожидание квадрата отклонения от среднего).

Дилип Сарватэ
источник
это особый случай ответа @ Джухо
Аксакал
Это был просто комментарий, но я также могу добавить, что этот ответ не отвечает на заданный вопрос.
Аксакал
@Aksakal Так ??? Юхо отвечал на немного другой и совсем недавно заданный вопрос. Этот новый вопрос был объединен с тем, который вы видите выше, на который я ответил десять месяцев назад.
Дилип Сарвате,
0

[a,б]

Вaр(Икс)знак равноЕ[(Икс-Е[Икс])2]Е[(б-a)2]знак равно(б-a)2,
1/4

1/4

Эта статья выглядит лучше, чем статья в Википедии ...

Вaр(Икс)знак равно(б-a)212,
Ric
источник
На этой странице приводятся результаты с началом доказательства, которое для меня становится слишком сложным, так как кажется, что требуется понимание «Фундаментальной теоремы линейного программирования». sci.tech-archive.net/Archive/sci.math/2008-06/msg01239.html
Адам Рассел
Спасибо за то, что поставили имя этому! «Неравенство Поповичу» как раз то, что мне нужно.
Адам Рассел
2
1/4
2
Непрерывное распределение может приближаться к дискретному (в терминах cdf) сколь угодно близко (например, построить непрерывную плотность из данного дискретного, поместив небольшое ядро ​​в форме бета (4,4) в центре в каждой точке массы - соответствующей области) и пусть стандартное отклонение каждого такого ядра уменьшается до нуля, сохраняя его площадь постоянной). Таким образом, такие дискретные оценки, которые обсуждаются здесь, будут также действовать как границы непрерывных распределений. Я ожидаю, что вы думаете о непрерывных унимодальных распределениях ... которые действительно имеют разные верхние границы.
Glen_b
2
Ну ... мой ответ был наименее полезным, но я бы оставил его здесь из-за хороших комментариев. Приветствия, R
Рик