Я недавно столкнулся с этой личностью:
Я, конечно, знаком с более простой версией этого правила, а именно, что но я не смог найти оправдания для его обобщение.
Я был бы признателен, если бы кто-то мог указать мне на не очень техническую ссылку на этот факт или, что еще лучше, если бы кто-то мог выложить простое доказательство этого важного результата.
Ответы:
НЕФОРМАЛЬНОЕ ЛЕЧЕНИЕ
Мы должны помнить, что обозначение, в котором мы приводим случайные переменные, является неточным, хотя и экономичным, как обозначение. В действительности мы обусловливаем сигма-алгебру, которую генерируют эти случайные величины. Другими словами, означает . Это замечание может показаться неуместным в «Неформальной обработке», но оно напоминает нам, что наши кондиционирующие сущности являются коллекциями наборов (и когда мы обусловливаем одно значение, тогда это одноэлементный набор). И что содержат эти наборы? Они содержат информацию , с которой возможными значениями случайной величины предоставить нам о том, что может произойти с реализацией .E [ Y ∣ σ ( X ) ] X Y σ ( X ) ⊆ σ ( X , Z ) Y σ ( X , Z ) σ ( X ) σ ( X ) ≡ I x σ ( X , Z ) ≡ я х зE[Y∣X] E[Y∣σ(X)] X Y σ(X)⊆σ(X,Z) Y σ(X,Z) σ(X)
σ(X)≡Ix σ(X,Z)≡Ixz
Внедрение концепции информации позволяет нам думать (и использовать) закон повторяющихся ожиданий (иногда называемый «свойством башни») очень интуитивным способом:
сигма-алгебра, порожденная двумя случайными переменными, по крайней мере как большой, который генерируется одной случайной величиной: в правильном теоретико-множественном смысле. Таким образом, информация о содержащаяся в , по крайней мере так же велика, как соответствующая информация в . Теперь, как примечание для обозначения, установите и . Тогда LHS уравнения, на которое мы смотрим, можно записать
Y I x z
Можем ли мы как-то «учесть» ? Нет, мы знаем только . Но если мы используем то, что имеем (поскольку мы обязаны выражением, которое мы хотим разрешить), то мы, по сути, говорим о под оператором ожиданий, т.е. мы говорим « », не более - мы только что исчерпали нашу информацию. I x Y E ( Y ∣ I x )Ixz Ix Y E(Y∣Ix)
Следовательно,
Если кто-то еще этого не сделает, я вернусь на официальное лечение.
(Немного больше) ФОРМАЛЬНОЕ ЛЕЧЕНИЕ
Давайте посмотрим, как две очень важные книги теории вероятностей, «Вероятность и мера» П. Биллингсли (3d ed.-1995) и Д. Уильямс «Вероятность с Мартингейлом» (1991), рассматривают вопрос доказательства «закона повторных ожиданий»:
Биллингсли посвящает ровно три строки доказательству. Уильямс, и я цитирую, говорит
Это одна строка текста. Доказательство Биллингсли не менее непрозрачно.
Они, конечно, правы: это важное и очень интуитивное свойство условного ожидания происходит по существу непосредственно (и почти сразу) из его определения - единственная проблема, я подозреваю, что это определение обычно не преподается или, по крайней мере, не выделяется, вне вероятности или измерить теоретические круги. Но чтобы показать (почти) три строки, которые выполняет закон повторных ожиданий, нам нужно определить условное ожидание, или, скорее, его определяющее свойство .
Пусть вероятностное пространство и интегрируемая случайная величина . Пусть является суб - алгебра , . Тогда существует функция которая -измерима, интегрируема и (это определяющее свойство)Y G σ F G ⊆ F W G(Ω,F,P) Y G σ F G⊆F W G
где является функцией индикатора множества . Мы говорим, что является («версией») условного ожидания заданного , и мы пишем критическая деталь, которую следует здесь отметить, заключается в том, что условное ожидание имеет такое же значение , как ожидается делает, а не только по всей , но в каждом подмножестве из . G W Y G W = E ( Y ∣ G )1G G W Y G Y G G GW=E(Y∣G)a.s.
Y G G G
(Сейчас я попытаюсь представить, как свойство Tower вытекает из определения условного ожидания).
G σ H ⊆ G G ∈ H ⇒ G ∈ G W H U = E ( W ∣ H )W является -измеримой случайной величиной. Рассмотрим теперь некоторые суб- - алгебра, скажем . Тогда . Таким образом, аналогично предыдущему, мы имеем условное ожидание заданное , скажем, оно характеризуется G σ H⊆G G∈H⇒G∈G W H U=E(W∣H)a.s.
Поскольку , уравнения и дают намH⊆G [1] [2]
Но это определяющее свойство условного ожидания данного .Y H Таким образом, мы имеем право написать
Так мы также по построению , мы только что доказали свойство Tower или общая форма закона повторных ожиданий - в восемь строк.U=E(Y∣H)a.s.
U=E(W∣H)=E(E[Y∣G]∣H)
источник
Я понимаю условное ожидание и учу своих учеников следующим образом:
условное ожидание - это снимок, сделанный камерой с разрешениемE[Y|σ(X)] σ(X)
Как упоминал Алекос Пападопулос, обозначение является более точным, чем . Вдоль линии камеры можно рассматривать как исходный объект, например, пейзаж, пейзаж. - это снимок, сделанный камерой с разрешением . Ожидание является оператором усреднения (оператор «размывания»?). Сценарий может содержать много материала, но снимок, сделанный вами с помощью камеры с низким разрешением, несомненно, уберет некоторые детали, например, в небе может быть НЛО, который может быть виден невооруженным глазом, но это не так. появляются на вашей фотографии, сделанные (iphone 3?)E[Y|σ(X)] E[Y|X] Y E[Y|σ(X,Z)] σ(X,Z)
Если разрешение настолько высокое, что , тогда эта картинка способна уловить каждую деталь реального пейзажа. В этом случае мы имеем .σ(X,Z)=σ(Y) E[Y|σ(Y)]=Y
Теперь можно рассматривать как: использование другой камеры с разрешением (например, iphone 1), которое меньше, чем (например, iphone 3) и сделайте снимок на этом изображении, созданном камерой с разрешением , тогда должно быть ясно, что это изображение на изображении должно быть таким же, как если бы вы изначально просто используйте камеру с низким разрешением на пейзаж.E[E[Y|σ(X,Z)]|σ(X)] σ(X) σ(X,Z) σ(X,Z) σ(X)
Это обеспечивает интуицию на . Фактически, та же самая интуиция говорит нам, что все еще. Это связано с тем, что: если ваше первое изображение было снято на iphone 1 (т.е. с низким разрешением), и теперь вы хотите использовать более качественную камеру (например, iphone 3) для создания другой фотографии на первой фотографии, то вы никак не можете можно улучшить качество первой фотографии.E[E[Y|X,Z]|X]=E[Y|X] E[E[Y|X]|X,Z]=E[Y|X]
источник
В законе повторного ожидания (LIE) это внутреннее ожидание является случайной величиной, которая оказывается функцией , скажем, , а не является функцией . То, что ожидание этой функции оказалось равным ожиданию является следствием LIE. Все, что это, махнув рукой, это просто утверждение о том, что среднее значение можно найти путем усреднения средних значений при различных условиях. По сути, это всего лишь прямое следствие закона полной вероятности. Например, если иE[E[Y∣X]]=E[Y] X g(X) Y X Y Y Y X Y - дискретные случайные величины с объединением pmf , затем
\ scriptstyle {\ text {RV} ~ E [Y \ mid X] ~ \ text {имеет значение} ~ E [Y \ mid X = x] ~ \ text {when} ~ X = x} \ end {align}
Уведомление как это последнее ожидание относительно ;pX,Y(x,y)
Обобщенная ЛОЖЬ , что вы смотрите имеет на левой , в котором внутреннее ожидание есть функция из двух случайных величин и . Аргумент похож на изложенный выше, но теперь мы должны показать, что случайная величина равна другой случайной переменной. Мы делаем это, глядя на значение когда имеет значение . Пропустив объяснения, мы имеемE[E[Y∣X,Z]∣X] h(X,Z) X Z E[Y∣X] E[Y∣X] X x
Таким образом, для каждого значения случайной величины значение случайной величины (которое мы отмечали ранее, является функцией , а не ), равно значению случайной величины. переменная , то есть эти две случайные величины равны. Хотел бы я соврать тебе?X E [ Y ∣ X ] X Y E [ E [ Y ∣ X , Z ] ∣ X ]x X E[Y∣X] X Y E[E[Y∣X,Z]∣X]
источник