Допустим, у нас есть случайный вектор , взятый из распределения с функцией плотности вероятности . Если мы линейно преобразуем его с помощью матрицы полного ранга, чтобы получить , то плотность определяется каке → Х ( → х )п×п → Y = → X → Y F → Y ( → Y )=1Икс⃗ ∈ RNеИкс⃗ ( х⃗ )n × nAY⃗ = A X⃗ Y⃗
еY⃗ ( у⃗ ) = 1| дет А |еИкс⃗ ( А- 1Y⃗ ) .
Теперь предположим, что мы преобразуем Икс⃗ вместо этого в м × н матрицы В , с м > н , что дает Z⃗ = B X⃗ . Ясно, что Z∈ Rм , но он "живет" в N мерном подпространстве G ⊂ Rм . Какова условная плотность Z⃗ , если мы знаем, что она лежит в грамм ?
Мой первый инстинкт должен был использовать псевдо-инверсию В . Если B = USВT представляет собой разложение по сингулярным значение B , то B+=VS+UT является псевдообратная, где S+ образуется инвертированием ненулевых элементов диагональной матрицы S . Я догадывался, что это даст
fZ⃗ (z⃗ )=1∣∣det+S∣∣fX⃗ (B+z⃗ ),
где под
det+S я подразумеваю произведение ненулевых сингулярных значений.
Это рассуждение согласуется с плотностью для единственной нормали (обусловленной знанием того, что переменная живет в соответствующем подпространстве), приведенной здесь и упомянутой также здесь и в этой публикации CrossValidated .
Но это не правильно! Константа нормализации выключена. (Тривиальный) контрпример дается при рассмотрении следующего случая: С X∼N(0,1) , пусть
Y⃗ =(11)X=(XX).
Здесь матрица
B сверху является только вектором. Его псевдообратная последовательность:
B+=(1/21/2)
и
det+B=2–√ . Вышеизложенное
объясняет, что
f_ \ vec {Y} (\ vec {y}) = \ frac {1} {\ sqrt {2 \ pi} \ sqrt {2}} \ exp \ left (- \ frac {1} {2} \ vec {y} ^ T (B ^ +) ^ TB ^ + \ vec {y} \ right),
fY⃗ (y⃗ )=12π−−√2–√exp(−12y⃗ T(B+)TB+y⃗ ),
но на самом деле это объединяет (на линии
y=x ) в
12√, Я понимаю, что в этом случае вы могли бы просто удалить одну из записей
Y⃗ что вы сделали, но когда
B намного больше, идентификация набора записей для удаления раздражает. Почему не работает псевдообратное мышление? Существует ли общая формула для функции плотности линейного преобразования множества случайных величин с помощью «высокой» матрицы? Любые ссылки будут с благодарностью.