Случайная переменная, принимающая значения в является дискретной случайной величиной. Его распределение полностью описывается вероятностями
p i = P ( X = i ) с i ∈ { 0 , 1 } n . Приведенные вами вероятности p i и p i j являются суммами p i для определенных индексов i .{0,1}npi=P(X=i)i∈{0,1}npipijpii
Теперь кажется, что вы хотите описать , используя только p i и p i j . Это невозможно без принятия определенных свойств на p ipipipijpi . Для того, чтобы увидеть , что попытаться вывести характеристической функции из . Если мы возьмем п = 3, мы получимXn=3
Невозможно переставить это выражение так, чтобыp i
Eei(t1X1+t2X2+t3X3)=p000+p100eit1+p010eit2+p001eit3+p110ei(t1+t2)+p101ei(t1+t3)+p011ei(t2+t3)+p111ei(t1+t2+t3)
pi dissapear. For the gaussian random variable the characteristic function depends only on mean and covariance parameters. Characteristic functions uniquely define distributions, so this is why Gaussian can be described uniquely by using only mean and covariance. As we see for random variable
X this is not the case.
I don't know what the resulting distribution is called, or if it even has a name, but it strikes me the obvious way to set this up is to think of the model you'd use to model a 2×2×2×…×2 table using a log-linear (Poisson regression) model. As you know the 1st-order interactions only, it's then natural to assume that all higher-order interactions are zero.
Using the questioner's notation, this gives the model:
источник