Представьте, что у вас есть проблема в бесконечномерном гильбертовом или банаховом пространстве (подумайте о PDE или задаче оптимизации в таком пространстве), и у вас есть алгоритм, который слабо сходится к решению. Если вы дискретизируете задачу и примените к ней соответствующий дискретизированный алгоритм, то слабая сходимость - это сходимость по каждой координате и, следовательно, также сильная. Мой вопрос:
Чувствует ли этот вид сильной конвергенции отличия от конвергенции, полученной в результате старой доброй простой сильной конвергенции исходного бесконечного алгоритма?
Или, более конкретно:
Какое плохое поведение может произойти с «дискретным методом слабой конвергенции»?
Я сам обычно не совсем счастлив, когда могу доказать только слабую конвергенцию, но до сих пор я не мог наблюдать некоторые проблемы с результатами методов, даже если я масштабировал проблему дискретизированных проблем до более высоких измерений.
Обратите внимание, что меня не интересует проблема «сначала дискретизируй, чем оптимизируй» и «сначала оптимизируй, чем дискретизируй», и я знаю о проблемах, которые могут возникнуть, если применить алгоритм к дискретизированной задаче, которая не разделяет все свойства с проблемой для которого был разработан алгоритм.
Обновление: в качестве конкретного примера рассмотрим проблему оптимизации с переменной в и решить его с помощью чего-то вроде (инерционного) расщепления вперед-назад или каким-либо другим методом, для которого только слабая сходимость в известен. Для дискретизированной задачи вы можете использовать тот же метод, и с правильной дискретизацией вы получите тот же алгоритм, что и при дискретизации алгоритма напрямую. Что может пойти не так, когда вы увеличите точность дискретизации?
источник
Ответы:
Это правда, что слабая конвергенция наиболее важна в пределе континуума, так какh → 0 (например, не имея возможности наблюдать какую-либо скорость сходимости). По крайней мере, в гильбертовых пространствах она также тесно связана с неединственностью предела и, следовательно, только с последующей последовательной сходимостью (например, когда вы можете чередовать приближение к разным предельным точкам, снова разрушая скорости), и трудно отделить влияние два на конвергенции.
Специально для слабой сходимости вL2 у вас также есть тот факт, что сходимость не должна быть точечной, и это вы можете наблюдать при (достаточно тонкой) дискретизации. Вот пример из последовательности минимизаторов{Uε}ε > 0 что сходится как ε → 0 в
Это явление известно как «дребезжание» в приближении задач управления bang-bang для дифференциальных уравнений (т. Е. Задач с рамочными ограничениями, когда решение почти везде достигает либо нижней, либо верхней границы).
(Этот конкретный пример взят из нашей работы по многоканальному управлению эллиптическими системами , Ann. Henri Poincaré (C) 2014, 1109-1130, Замечание 4.2.)
источник
Вопрос, который вы задаете, часто не представляет большой практической проблемы, поскольку слабая сходимость в одной норме может означать сильную сходимость в другой для той же последовательности решений.
Чтобы дать вам один пример, давайте предположим, что мы решаем уравнение Лапласа с достаточно гладкой правой частью на выпуклой многоугольной области со стандартными конечными элементами. Тогда решениеU в ЧАС2 , но, конечно, конечно-элементное решение Uчас только в ЧАС1 , Мы знаем чтоUчас→ ты сильно в обоих L2 а также ЧАС1 норм как максимальный размер сетки h → 0 потому что у нас есть априорные оценки ошибок ∥ U -Uчас∥L2≤ Cчас2 а также ∥ U -Uчас∥ЧАС1≤ Cчас ,
Но ясно, что мы не можем ожидатьUчас→ ты сильно в ЧАС2 поскольку Uчас только в ЧАС1 , Но мы могли бы иметьUчас⇀ у слабо в ЧАС2 (на самом деле, я думаю, что это так). Тогда это, вероятно, будет означать утверждение, такое как
Дело в том, что вопрос слабой и сильной сходимости, как правило, является вопросом о том, на какую норму вы смотрите, а не свойством последовательности решений, которую вы получаете из своего метода.
источник