Метод случайных следов

10

Я встречал следующую методику рандомизированных следов у М. Сигера, «Обновления низкого ранга для разложения Холецкого», Университет Калифорнии в Беркли, Тех. Реп, 2007.

tr(A)=E[xTAx]

где .xN(0,I)

Как человек без глубоких математических знаний, мне интересно, как можно достичь этого равенства. Кроме того, как мы можем интерпретировать , например, геометрически? Где я должен искать, чтобы понять смысл взятия внутреннего произведения вектора и его значения диапазона? Почему среднее значение равно сумме собственных значений? Помимо теоретического свойства, каково его практическое значение?xTAx

Я написал фрагмент кода MATLAB, чтобы увидеть, работает ли он

#% tr(A) == E[x'Ax], x ~ N(0,I)

N = 100000;
n = 3;
x = randn([n N]); % samples
A = magic(n); % any n by n matrix A

y = zeros(1, N);
for i = 1:N
    y(i) = x(:,i)' * A * x(:,i);
end
mean(y)
trace(A)

След 15, где приближение 14,9696.

Petrichor
источник

Ответы:

12

NB. Указанный результат не зависит от предположения о нормальности или даже независимости от координат . Это также не зависит от положительно определенного. Действительно, предположим только, что координаты имеют нулевое среднее значение, дисперсию единицы и некоррелированы (но не обязательно независимы); то есть , и для всех .xAxExi=0Exi2=1Exixj=0ij

Подход голыми руками

Пусть - произвольная матрица. По определению . Тогда и все готово.A=(aij)n×ntr(A)=i=1naii

tr(A)=i=1naii=i=1naiiExi2=i=1naiiExi2+ijaijExixj,

В случае, если это не совсем очевидно, обратите внимание, что правая часть по линейности ожидания равна

i=1naiiExi2+ijaijExixj=E(i=1nj=1naijxixj)=E(xTAx)

Доказательство через свойства трассировки

Есть еще один способ написать это, что наводит на мысль, но концептуально опирается на немного более продвинутые инструменты. Нам нужно, чтобы и ожидание, и оператор трассировки были линейными и чтобы для любых двух матриц и соответствующих размеров, . Тогда, поскольку , мы имеем и так, ABtr(AB)=tr(BA)xTAx=tr(xTAx)

E(xTAx)=E(tr(xTAx))=E(tr(AxxT))=tr(E(AxxT))=tr(AExxT),
E(xTAx)=tr(AI)=tr(A).

Квадратичные формы, внутренние произведения и эллипсоиды

Если положительно определен, то внутреннее произведение на можно определить через и определяют эллипсоид в центром в начале координат.ARnx,yA=xTAyEA={x:xTAx=1}Rn

кардинальный
источник
Весьма запутанно следить за полужирными и mormalcase переменными. Я думаю, что они являются скалярными значениями. Я понимаю более четко, когда начинаю с формы ожидания, как вы делали в прошлой части. Итак, теперь для меня совершенно ясно. xixi
E[(xTAx)]=E[(i=1nj=1naijxixj)]=i=1naiiE[xi2]+ijaijE[xixj]
Петричор
xi - это я координата вектора . Остальные просто опечатки. Прости за это. Я пытался следовать вашей записи как можно ближе. Я бы обычно использовал с в качестве координат случайной величины . Но я не хотел (потенциально) запутать. ixX=(Xi)XiX
кардинал
На самом деле, это согласуется с ответом. Я просто хотел убедиться, что подписанные переменные являются элементами вектора. Теперь понятно.
Петричор
Ну, это соответствует (сейчас), потому что я редактировал это! :) Спасибо за указание на опечатки. Я постараюсь добавить немного больше о геометрии в какой-то момент в течение следующих нескольких дней.
кардинал
3

Если симметрично положительно определен, то с ортонормированным и диагональю с собственными значениями на диагонали. Поскольку имеет единичную ковариационную матрицу, а ортонормирован, также имеет единичную ковариационную матрицу. Следовательно, записывая , мы имеем . Поскольку оператор ожидания является линейным, это просто . Каждый является хи-квадрат с 1 степенью свободы, поэтому имеет ожидаемое значение 1. Следовательно, ожидание является суммой собственных значений.AA=UtDUUDxUUxy=UxE[xTAx]=E[ytDy]i=0nλiE[yi2]yi

Геометрически симметричные положительно определенные матрицы находятся в 1-1 соответствии с эллипсоидами, заданными уравнением . Длина осей эллипсоида определяется как где - собственные значения.AxTAx=11/λiλi

Когда где - ковариационная матрица, это квадрат расстояния Махаланобиса .A=C1C

aprokopiw
источник
1

Позвольте мне остановиться на части вопроса «какова ее практическая важность». Есть много ситуаций , в которых мы имеем возможность вычислять матрицу векторных произведений эффективно , даже если мы не будем иметь сохраненную копию матрицы или не имеют достаточно места , чтобы сохранить копию . Например, может иметь размер 100 000 на 100 000 и быть полностью плотным - для хранения такой матрицы в формате с плавающей запятой с двойной точностью потребуется 80 гигабайт оперативной памяти. AxAAA

Рандомизированные алгоритмы , как это может быть использовано для оценки следов или (используя связанный алгоритм) индивидуальные диагональные элементы . AA

Некоторые применения этого метода для крупномасштабных задач геофизической инверсии обсуждаются в

Дж. К. Маккарти, Б. Борхерс и Р. К. Астер. Эффективная стохастическая оценка диагонали матрицы разрешения модели и обобщенная перекрестная проверка для больших геофизических обратных задач. Журнал геофизических исследований, 116, B10304, 2011. Ссылка на статью

Брайан Борхерс
источник
+1 Я познакомился с рандомизированными алгоритмами в этом семестре и увлекся ими. Позвольте мне добавить еще одну хорошую статью. Натан Халко, Пер-Гуннар Мартинссон, Джоэл А. Тропп, «Нахождение структуры со случайностью: вероятностные алгоритмы построения приближенных матричных разложений», 2010, arxiv.org/abs/0909.4061
petrichor