Можем ли мы что-нибудь сказать о зависимости случайной величины и функции от случайной величины? Например, зависит ли X 2
probability
random-variable
Рохит Банга
источник
источник
Ответы:
Вот подтверждение комментария @ cardinal с небольшим поворотом. Если X и f ( X ) независимы, то P ( X ∈ A ∩ f - 1 ( B ) ) = P ( X ∈ A , f ( X ) ∈ B )X f(X) = P ( X ∈ A ) P ( f ( X ) ∈ B )= P ( X ∈ A ) P ( X ∈ f - 1 ( B ) )
ПринимаяA=f-1(B),получаем уравнение
P(f(X)∈B)=P(f(X)∈B)2,
который имеет два решения 0 и 1. Таким образом,P(f(X∈
Однако детали на теоретическом уровне меры, похоже, не являются главной заботой ОП. Если X вещественное и f вещественная функция (и мы используем , скажем, борелевскую σ- алгебру), то из B = ( - ∞ , b ] следует, что функция распределения для распределения f ( X ) принимает только значения 0 и 1, следовательно, есть b, при котором он переходит с 0 на 1 и P ( f ( X ) = b ) = 1X f σ B=(−∞,b] f(X) b 0 1 P(f(X)=b)=1 ,
В конце концов, ответ на вопрос OPs заключается в том, что X и f ( X ), как правило, зависимы и независимы только в очень особых обстоятельствах. Кроме того, мера Дирака δ е ( х ) всегда имеет право на условное распределение ф ( X ) данного X = х , что формальный способ сказать , что знание X = х , то вы знаете точно , что F ( X )X f(X) δf(x) f(X) X=x X=x f(X) является. Эта особая форма зависимости с вырожденным условным распределением характерна для функций случайных величин.
источник
Lemma: Let XX be a random variable and let ff be a (Borel measurable) function such that XX and f(X)f(X) are independent. Then f(X)f(X) is constant almost surely. That is, there is some a∈Ra∈R such that P(f(X)=a)=1P(f(X)=a)=1 .
The proof is below; but, first, some remarks. The Borel measurability is just a technical condition to ensure that we can assign probabilities in a reasonable and consistent way. The "almost surely" statement is also just a technicality.
The essence of the lemma is that if we want XX and f(X)f(X) to be independent, then our only candidates are functions of the form f(x)=af(x)=a .
Contrast this with the case of functions ff such that XX and f(X)f(X) are uncorrelated. This is a much, much weaker condition. Indeed, consider any random variable XX with mean zero, finite absolute third moment and that is symmetric about zero. Take f(x)=x2f(x)=x2 , as in the example in the question. Then Cov(X,f(X))=EXf(X)=EX3=0Cov(X,f(X))=EXf(X)=EX3=0 , so XX and f(X)=X2f(X)=X2 are uncorrelated.
Below, I give the simplest proof I could come up with for the lemma. I've made it exceedingly verbose so that all the details are as obvious as possible. If anyone sees ways to improve it or simplify it, I'd enjoy knowing.
Idea of proof: Intuitively, if we know XX , then we know f(X)f(X) . So, we need to find some event in σ(X)σ(X) , the sigma algebra generated by XX , that relates our knowledge of XX to that of f(X)f(X) . Then, we use that information in conjunction with the assumed independence of XX and f(X)f(X) to show that our available choices for ff have been severely constrained.
Proof of lemma: Recall that XX and YY are independent if and only if for all A∈σ(X)A∈σ(X) and B∈σ(Y)B∈σ(Y) , P(X∈A,Y∈B)=P(X∈A)P(Y∈B)P(X∈A,Y∈B)=P(X∈A)P(Y∈B) . Let Y=f(X)Y=f(X) for some Borel measurable function ff such that XX and YY are independent. Define A(y)={ω:f(X(ω))≤y}A(y)={ω:f(X(ω))≤y} . Then,
A(y)={ω:X(ω)∈f−1((−∞,y])}
Since XX and YY are assumed independent and A(y)∈σ(X)A(y)∈σ(X) , then
P(X∈A(y),Y≤y)=P(X∈A(y))P(Y≤y)=P(f(X)≤y)P(f(X)≤y),
NB: Note that the converse is also true by an even simpler argument. That is, if f(X)=af(X)=a almost surely, then XX and f(X)f(X) are independent.
источник