Насколько я понимаю, существует две основные категории итерационных методов решения линейных систем уравнений:
- Стационарные методы (Якоби, Гаусс-Зайдель, СОР, Мультисетка)
- Методы подпространства Крылова (Conjugate Gradient, GMRES и др.)
Я понимаю, что большинство стационарных методов работают путем итеративного ослабления (сглаживания) мод Фурье ошибки. Насколько я понимаю, метод сопряженных градиентов (метод подпространств Крылова) работает, «шагая» через оптимальный набор направлений поиска по степеням матрицы, примененной к му остатку. Является ли этот принцип общим для всех методов подпространства Крылова? Если нет, то как в целом охарактеризовать принцип сходимости подпространственных методов Крылова?
Ответы:
В общем, все методы Крылова, по сути, ищут многочлен, который мал при оценке по спектру матрицы. В частности, й остаток метода Крылова (с нулевым начальным предположением) можно записать в видеN
где - некоторый монический многочлен степени . нпN N
Если диагонализуем, с , мы имеемA = V Λ V - 1A A = VΛ V- 1
В том случае, если нормально (например, симметричный или унитарный) мы знаем , что GMRes конструктов такой многочлена через Арнольди итерацию, в то время как CG строит многочлен с использованием другого внутреннего продукта (см этого ответа для подробностей ). Точно так же BiCG строит свой полином через несимметричный процесс Ланцоша, в то время как чебышевская итерация использует предварительную информацию о спектре (обычно оценки наибольшего и наименьшего собственных значений для симметричных определенных матриц).κ ( V ) = 1.A κ ( V) = 1.
В качестве классного примера (мотивированного Trefethen + Bau) рассмотрим матрицу, спектр которой таков:
В MATLAB я построил это с помощью:
Если мы рассмотрим GMRES, который строит многочлены, которые фактически минимизируют остаток по всем моническим многочленам степени , мы можем легко предсказать историю остатков, посмотрев на многочлен-кандидатN
который в нашем случае дает
для в спектре .AZ A
Теперь, если мы запустим GMRES на случайной RHS и сравним остаточную историю с этим полиномом, они должны быть очень похожими (возможные значения полинома меньше, чем остаточный GMRES, потому что ):∥ б ∥2> 1
источник
По нормам
В качестве дополнения к ответу Reid.Atcheson, я хотел бы прояснить некоторые вопросы, касающиеся норм. На итерации GMRES находит многочлен который минимизирует норму невязки п н 2nth Pn 2
Предположим, что является SPD, поэтому индуцирует норму и . затемA A A−1
где мы использовали ошибку
Таким образом, норма ошибки эквивалентна норме невязки. Сопряженные градиенты сводят к минимуму норму ошибки, что делает ее относительно более точной при разрешении низкоэнергетических мод. -норм остаточных, который минимизирует GMRES, подобно -норме ошибки, и , следовательно , слабее в том смысле , что режимы с низким потреблением энергии менее хорошо решены. Обратите внимание, что норма остатка по существу бесполезна, потому что она еще слабее на модах с низкой энергией.A - 1 A 2 A T A AA A−1 A 2 ATA A
Резкость границ сходимости
Наконец, есть интересная литература о различных методах Крылова и тонкостях сходимости GMRES, особенно для ненормальных операторов.
Nachtigal, Reddy и Trefethen (1992). Насколько быстры несимметричные матричные итерации? (авторский pdf) приводит примеры матриц, для которых один метод значительно превосходит все остальные (по крайней мере, квадратный корень из размера матрицы).
Эмбри (1999). Насколько наглядны границы сходимости GMRES? дает глубокое обсуждение в терминах псевдоспектров, которые дают более четкие границы, а также относится к недиагонализируемым матрицам.
Эмбри (2003) Черепаха и заяц перезапускают GMRES (автор pdf)
Greenbaum, Pták, Strakoš (1996) Любая нерастущая кривая сходимости возможна для GMRES
источник
Итерационные методы в двух словах:
Крылов метода методы подпространственная в сущности проекционных методов : Вы выбираете подпространства и искать такие , что остаточный ортогонален . Для методов Крылова конечно, является пространством, охватываемым степенями примененными к начальному остатку. Различные методы соответствуют конкретному выбору (например, для CG и для GMRES).˜ x ∈ U b - A ˜ x V U A V V = U V = A UU,V⊂Cn x~∈U b−Ax~ V U A V V=U V=AU
Свойства сходимости этих методов (и проекционные методы в целом) следует из того , что благодаря соответствующему выбору , то являются оптимальным над (например, они минимизируют ошибку в энергетической норме для CG или остаточного для GMRES). Если вы увеличиваете размерность на каждой итерации, вы гарантированно (в точной арифметике) найдете решение после конечного числа шагов.˜ x U UV x~ U U
Как отметил Reid Atcheson, используя крыловские пространства для позволяет доказать скорости сходимости в терминах собственных (и , следовательно , число обусловленности) от . Кроме того, они имеют решающее значение для выведения эффективных алгоритмов для вычисления проекции .A ˜ xU A x~
Это хорошо объясняется в книге Юсефа Саада об итерационных методах .
источник