Мы знаем, например, из Koutis-Miller-Peng (на основе работы Spielman & Teng), что мы можем очень быстро решить линейные системы для матриц которые представляют собой матрицу Лапласа графа для некоторого разреженного графа с неотрицательными весами ребер ,
Теперь (первый вопрос) рассмотрим использование одной из этих графов лапласовских матриц в качестве ковариационной или (второй вопрос) обратной ковариационной матрицы многомерного нормального распределения с нулевым средним или . Для каждого из этих случаев у меня есть два вопроса:N ( 0 , A - 1 )
A. Насколько эффективно мы можем извлечь образец из этого распределения? (Как правило, чтобы нарисовать образец, мы вычисляем разложение Холецкого , нарисуем стандартную нормаль y \ sim \ mathcal {N} (\ boldsymbol {0}, I) , затем вычисляем образец как x = L ^ { -1} у ). у ~ N ( 0 , я ) х = L - 1 г
B. Насколько эффективно мы можем вычислить определитель ?
Обратите внимание, что оба из них могут быть легко решены с помощью разложения Холецкого, но я не сразу вижу, как извлечь более эффективно, чем просто с помощью стандартного разреженного алгоритма Холецкого, который не будет использовать методы, представленные в вышеупомянутой ссылке работает, и который будет иметь кубическую сложность для графов разреженной, но высокой ширины.
Ответы:
Здесь есть два отдельных вопроса.
Краткие ответы: 1) использовать приближения рациональных матричных функций и 2) нет, но в любом случае вам это не нужно. Я рассматриваю оба эти вопроса ниже.
Матрица квадратного корня
Идея состоит в том, чтобы преобразовать приближение рациональной функции для скалярных функций в приближение рациональной функции для матричных функций.
Мы знаем, что существуют рациональные функции, которые могут очень хорошо аппроксимировать функцию квадратного корня, для положительногоbi. Действительно, чтобы получить высокую точность на интервале[m,M], вам нужноO(logM
Теперь рассмотрим применение этой рациональной функции к вашей матрице:
Обозначив число условия через , мы можем применить к любому желаемому допуску, выполнив положительно смещенный граф лапласовых решений вида Κ 1 / 2 б O ( журнал κ ) ( + б I ) х = Ь .A κ A1/2b O(logκ)
Эти решения могут быть сделаны с вашим любимым графическим лапласовским решателем - я предпочитаю методы многосеточного типа, но тот, который вы цитируете, тоже подойдет. Дополнительный только помогает сходимости решателя.bI
Отличная статья, в которой обсуждается это, а также более общие методы комплексного анализа, применимые к несимметричным матрицам, см. разделе « Вычисление , и связанных матричных функций с помощью контурных интегралов» лог ( )Aα log(A) , Hale, Higham и Trefethen (2008). ).
Определитель "вычисления"
Детерминант сложнее вычислить. Насколько я знаю, лучший способ вычислить разложение Шура с помощью QR - алгоритма, а затем считывать собственные от диагонали верхней треугольной матрицы . Это занимает времени, где - количество узлов в графе.A=QUQ∗ U O(n3) n
Однако вычисление детерминантов является изначально плохо обусловленной проблемой, поэтому, если вы когда-либо читали статью, которая основывается на вычислении детерминантов большой матрицы, вы должны очень скептически относиться к этому методу.
К счастью, вам, вероятно, не нужен определитель. Например,
Мы можем рассматривать как низкоуровневое обновление идентификатора, где эффективный числовой ранг низшего ранга является локальной мерой того, насколько негауссово истинное распределение; обычно это намного ниже, чем полный ранг матрицы. В самом деле, если велико, то истинное распределение локально настолько негауссово, что следует подвергнуть сомнению всю стратегию попытки выборки этого распределения с использованием локальных гауссовых приближений.A−1x0Axp
Факторы низкого ранга и можно найти с помощью рандомизированных SVD или Lanczos, применяя матрицу к различным векторам, для каждого применения которых требуется один граф Лапласово решение. Таким образом, общая работа по получению этих факторов низкого ранга составляет .Q D
Зная , отношение определителей будет тогда det ( A - 1 x 0 A x p ) = det ( I + Q D Q ∗ ) = exp ( r ∑ i = 1 log d i ) .D=diag(d1,d2,…,dr)
Эти методы расчета коэффициента детерминанта низкого ранга можно найти в методе стохастического Ньютона MCMC для крупномасштабных статистических обратных задач с применением к сейсмической инверсии , Martin, et al. (2012). В этой статье он применяется к задачам континуума, поэтому «граф» - это сетка в трехмерном пространстве, а граф Лапласа - это действительная матрица Лапласа. Однако все техники применимы к лапласианам общего графа. Вероятно, есть и другие статьи, в которых этот метод применяется к общим графам (расширение тривиально и, в основном, то, что я только что написал)
источник