Ожидание обратной переменной

Ответы:

27

это может быть 1 / E (X)?

Нет, вообще не может; Неравенство Дженсена говорит нам, что если - случайная величина, а - выпуклая функция, то , Если строго положительно, то выпукло, поэтому , а для строго выпуклой функции равенство имеет место только в том случае, если имеет нулевая дисперсия ... так что в случаях, когда мы склонны интересоваться, эти два, как правило, неравны.X Xφ φφ ( E [ X ] ) E [ φ ( X ) ]φ(E[X])E[φ(X)] X X1 / X 1/XE [ 1 / X ] 1 / E [ X ] E[1/X]1/E[X]XX

Предполагая, что мы имеем дело с положительной переменной, если вам ясно, что и будут обратно связаны ( ), то это будет означать что подразумевает , поэтому ,X X1 / X 1/XCov ( X , 1 / X ) 0 Cov(X,1/X)0E ( X 1 / X ) - E ( X ) E ( 1 / X ) 0 E(X1/X)E(X)E(1/X)0E ( X ) E ( 1 / X ) 1 E(X)E(1/X)1E ( 1 / X ) 1 / E ( X )E(1/X)1/E(X)

Я запутался в применении ожидания в знаменателе.

Используйте закон бессознательного статистика

Е [ г ( Х ) ] = - г ( х ) е X ( х ) д х

E[g(X)]=g(x)fX(x)dx

(в непрерывном случае)

поэтому, когда ,г ( х ) = 1Xg(X)=1X E[1X ]=- f(x)х дхE[1X]=f(x)xdx

В некоторых случаях ожидание может быть оценено путем проверки (например, с помощью гамма-случайных переменных) или путем получения распределения обратного или другими способами.

Glen_b - Восстановить Монику
источник
14

Как говорит Glen_b, это, вероятно, неправильно, поскольку обратная функция является нелинейной функцией. Если вы хотите приближение к возможно, вы можете использовать разложение Тейлора вокруг :E ( 1 / X )E(1/X) E ( X )E(X)

E ( 1X )E(1E(X)1E(X)2(XE(X))+1E(X)3(XE(X))2)==1E(X)+1E(X)3Var(X)

E(1X)E(1E(X)1E(X)2(XE(X))+1E(X)3(XE(X))2)==1E(X)+1E(X)3Var(X)
поэтому вам просто нужно среднее значение и дисперсия X, и если распределение симметрично, это приближение может быть очень точным.XX

РЕДАКТИРОВАТЬ: может быть, выше, очень важно, см. Комментарий от BioXX ниже.

Маттео Фазиоло
источник
о, да, да ... мне очень жаль, что я не смог понять этот факт ... у меня есть еще один вопрос ... это применимо к какой-либо функции ??? на самом деле я застрял с... Как можно ожидать отможно вывести с точки зрения и|x||x||x||x|E(x)E(x)V(x)V(x)
Сандипан Кармакар
2
Я не думаю, что вы можете использовать его дляпоскольку эта функция не дифференцируема. Я бы лучше разделил задачу на случаи и сказал бы, что , I Угадай. |X||X|E(|X|)=E(X|X>0)p(X>0)+E(X|X<0)p(X<0)E(|X|)=E(X|X>0)p(X>0)+E(X|X<0)p(X<0)
Маттео Фазиоло
1
@MatteoFasiolo Не могли бы вы объяснить, почему симметрия распределения (или ее отсутствие) влияет на точность приближения Тейлора? У вас есть источник, на который вы могли бы указать мне, который объясняет, почему это так? XX
Аарон Хендриксон
1
@AaronHendrickson мои рассуждения просто о том , что следующий член в разложении пропорциональна , который связан с асимметрией распределения . Асимметрия является мерой асимметрии. Однако нулевая асимметрия не гарантирует симметрию, и я не уверен, гарантирует ли симметрия нулевую асимметрию. Следовательно, все это эвристично и может быть множество контрпримеров. E{(XE(X))3}E{(XE(X))3}XX
Маттео Фазиоло
4
Я не понимаю, как это решение получает так много голосов. Для единственной случайной величины нет обоснования качества этого приближения. Третья производная не ограничена. Кроме того, остаток ок. равно где сама является случайной величиной между и . Остальная часть не исчезнет вообще и может быть очень большой. Тейлор ок. может быть полезным, только если есть последовательность случайных величин где . Даже тогда необходима равномерная интегрируемость, если вы заинтересованы в ожидании. XXf(x)=1/xf(x)=1/x1/6f(ξ)(Xμ)31/6f′′′(ξ)(Xμ)3ξξXXμμXnμ=Op(an)Xnμ=Op(an)an0an0
BloXX
8

Другие уже объяснили, что ответом на этот вопрос является НЕТ, кроме тривиальных случаев. Ниже мы даем подход к поиску когда с вероятностью один, и функции, генерирующей момент существуют. Применение этого метода (и обобщение) дано в Ожидаемом значении когда следует бета-распределению , здесь мы также приведем более простой пример.E1XE1XX>0X>0MX(t)=EetXMX(t)=EetX1/x1/xxx

Во-первых, обратите внимание, что (простое упражнение по исчислению). Затем напишите Простое приложение: пусть имеет экспоненциальное распределение со скоростью 1, то есть с плотностью и генерирующей момент функцией , Тогда , поэтому однозначно не сходятся и сильно отличаются от0etxdt=1x0etxdt=1xE(1X)=0x1f(x)dx=0(0etxdt)f(x)dx=0(0etxf(x)dx)dt=0MX(t)dt

E(1X)=0x1f(x)dx=0(0etxdt)f(x)dx=0(0etxf(x)dx)dt=0MX(t)dt
XXex,x>0MX(t)=11t,t<10MX(t)dt=011+tdt=ln(1+t)|0=1EX=11=1 .
Къетил б Халворсен
источник
7

Альтернативный подход к вычислению , зная , Х является положительной случайной величина через генерирующий момент функцию . Поскольку по элементарным вычислениям , по теореме Фубини E(1/X)E[eλX]0eλxdλ=1x

0E[eλX]dλ=E[1X].
user172761
источник
2
Идея здесь верна, но детали неверны. Пожалуйста, проверьте
kjetil b halvorsen
1
@ Kjetil Я не вижу, в чем проблема: кроме несущественных различий в использовании вместо в определении MGF и именовании переменной вместо , ответ, который вы только что опубликовали, идентичен этот. tXtXtλ
whuber
1
Вы правы, проблем оказалось меньше, чем я думал. Тем не менее, этот ответ был бы лучше с некоторыми подробностями. Я объявлю это завтра (когда у меня будут новые голоса)
kjetil b halvorsen
1

Чтобы сначала дать интуицию, как насчет использования дискретного регистра в конечной выборке для иллюстрации этого (за исключением случаев, таких как ) ?E(1/X)1/E(X) E(X)=0

В конечной выборке использование среднего значения для ожидания не столь оскорбительно, как, например, если с одной стороны

E(X)=1NNi=1Xi

и один имеет с другой стороны

E(1/X)=1NNi=11/Xi

становится очевидным , что при ,N>1

E(1/X)=1NNi=11/XiNNi=1Xi=1/E(X)

Что приводит к тому, что, по сути, поскольку обратная (дискретная) сумма не является (дискретной) суммой обратных.E(1/X)1/E(X)

Аналогично в асимптотическом центрированном непрерывном случае0

E(1/X)=f(x)xdx1/xf(x)dx=1/E(X) .

Keepalive
источник