Вопросы с тегом «optimization»

13
Путаница в правлении Армихо

У меня путаница с правилом Армихо, который используется при поиске строк. Я перечитывал поиск по линии отслеживания, но не понял, о чем это правило Армихо. Кто-нибудь может уточнить, что такое правило Армихо? Википедия не очень хорошо объясняет....

13
Путаница в проблеме сжатого ощущения

Я прочитал некоторые ссылки, включая это . Я немного сбит с толку, какую проблему оптимизации пытается решить сжатая система зондирования. Это свести к минимумупри условии∥ х ∥1A x = bсвести к минимуму| |Икс| |1при условииAИксзнак равноб\begin{array}{ll} \text{minimize} & \|x\|_1\\ \text{subject...

12
Ньютоновские методы в оптимизации и решении систем нелинейных уравнений

Я попросил разъяснений по поводу недавнего вопроса о minpack , и получил следующий комментарий: Любая система уравнений эквивалентна задаче оптимизации, поэтому методы оптимизации, основанные на Ньютоне, очень похожи на методы, основанные на Ньютоне, для решения систем нелинейных уравнений. То, что...

12
Эффективное решение смешанных целочисленных линейных программ

Многие важные проблемы могут быть выражены в виде смешанной целочисленной линейной программы . К сожалению, вычисление оптимального решения этого класса задач является NP-Complete. К счастью, есть алгоритмы аппроксимации, которые иногда могут обеспечить качественные решения только с умеренными...

12
Стратегии для метода Ньютона, когда якобиан в решении сингулярен

Я пытаюсь решить следующую систему уравнений для переменных и x 2 (все остальные являются константами):P,x1P,x1P,x_1x2x2x_2 A(1−P)2−k1x1=0AP2−k2x2=0(1−P)(r1+x1)4L1−P(r1+x2)4L2=0A(1−P)2−k1x1=0AP2−k2x2=0(1−P)(r1+x1)4L1−P(r1+x2)4L2=0\frac{A(1-P)}{2}-k_1x_1=0 \\ \frac{AP}{2}-k_2x_2=0 \\...

12
Глобальная максимизация дорогой целевой функции

Я заинтересован в максимизации в глобальном масштабе функции многих ( ) реальных параметров (результат сложного моделирования). Тем не менее, рассматриваемая функция является относительно дорогой для оценки, требующей около 2 дней для каждого набора параметров. Я сравниваю разные варианты, и мне...

12
Эффективный предварительный кондиционер для расширенного лагранжиана

Я хочу решить нелинейную задачу с нелинейными ограничениями равенства, и я использую расширенный лагранжиан с членом регуляризации штрафа, который, как известно, портит число условий моих линеаризованных систем (на каждой итерации Ньютона, которую я имею в виду) , Чем больше срок штрафа, тем хуже...

12
Абсолютное значение в линейных ограничениях

У меня есть следующая проблема оптимизации, где у меня есть абсолютное значение в моих ограничениях: Пусть и е 0 , е 1 , ... , е м векторы - столбцы размера п каждая. Мы хотели бы решить следующее: min f T 0 x s.t.x∈Rnx∈Rn\mathbf{x} \in \mathbb{R}^nf0,f1,…,fmf0,f1,…,fm\mathbf{f}_0, \mathbf{f}_1,...

12
Давление как множитель Лагранжа

В несжимаемых уравнениях Навье-Стокса термин давления часто упоминается как множитель Лагранжа, обеспечивающий условие несжимаемости.ρ(ut+(u⋅∇)u)∇⋅u=−∇p+μΔu+f=0ρ(ut+(u⋅∇)u)=−∇p+μΔu+f∇⋅u=0\begin{align*} \rho\left(\mathbf{u}_t + (\mathbf{u} \cdot \nabla)\mathbf{u}\right) &= - \nabla p +...

12
Решение задачи наименьших квадратов с линейными ограничениями в Python

Мне нужно решить s.t.minx∥Ax−b∥22,∑ixi=1,xi≥0,∀i.minx‖Ax−b‖22,s.t.∑ixi=1,xi≥0,∀i.\begin{alignat}{1} & \min_{x}\|Ax - b\|^2_{2}, \\ \mathrm{s.t.} & \quad\sum_{i}x_{i} = 1, \\ & \quad x_{i} \geq 0, \quad \forall{i}. \end{alignat} Я думаю, что это квадратичная проблема, которая должна быть решена с...

12
Методы декомпозиции для решения больших задач оптимизации

Мне было интересно, есть ли у кого-нибудь какие-либо предложения для текстов или обзорных статей о методах декомпозиции (например, примитив, дуал, декомпозиции Данцига-Вольфа) для решения больших задач математического программирования. Мне понравились «Заметки о методах разложения» Стивена Бойда ,...

11
CVXOPT VS. OpenOpt

CVXOPT: http://abel.ee.ucla.edu/cvxopt/index.html OpenOpt: http://openopt.org/Welcome Какая связь между ними? Каковы их преимущества / недостатки, соответственно? Кстати, есть ли еще какая-нибудь высококачественная библиотека выпуклой оптимизации общего назначения для Python / C ++, на которую...

11
масштабная инвариантность для алгоритмов поиска строки и области доверия

В книге Nocedal & Wright по числовой оптимизации в разделе 2.2 (стр. 27) содержится утверждение: «Вообще говоря, для алгоритмов линейного поиска легче сохранить масштабную инвариантность, чем для алгоритмов области доверия». В этом же разделе они говорят о наличии новых переменных, которые...

11
Проецирование нулевого пространства

Учитывая систему где A ∈ R n × n , я прочитал, что, если итерация Якоби используется в качестве решателя, метод не будет сходиться, если b имеет ненулевую компоненту в нуль-пространстве A , Итак, как можно формально утверждать, что при условии, что b имеет ненулевой компонент, охватывающий нулевое...

11
Вычисление определителя при решении

Я решаю для огромной разреженной положительно определенной матрицы используя метод сопряженного градиента (CG). Можно вычислить детерминант А, используя информацию, полученную в ходе решения?AA x = bAИксзнак...

11
Вычисление стандартных ошибок для задач линейной регрессии без вычисления обратного

Существует ли более быстрый способ вычисления стандартных ошибок для задач линейной регрессии, чем путем инвертирования ? Здесь я предполагаю, что у нас есть регрессия:X′XX′XX'X y=Xβ+ε,y=Xβ+ε,y=X\beta+\varepsilon, где - матрица n × k, а y - вектор n × 1 .XXXn×kn×kn\times kyyyn×1n×1n\times 1 Для...

11
Градиентный спуск и сопряженный градиентный спуск

Для проекта я должен реализовать эти два метода и сравнить, как они выполняют разные функции. Похоже, метод сопряженных градиентов предназначен для решения систем линейных уравнений Ax=bAx=b A\mathbf{x} = \mathbf{b} Где - матрица размером n на n, которая является симметричной, положительно...

11
Оптимизировать неизвестную функцию, которую можно оценить только?

Учитывая неизвестную функцию , мы можем оценить ее значение в любой точке ее области, но у нас нет ее выражения. Другими словами, f для нас как черный ящик.f:Rd→Rf:Rd→Rf:\mathbb R^d \to \mathbb Rfff Как называется проблема поиска минимизатора ? Какие существуют методы?fff Как называется задача...

11
Понимание стоимости сопряженного метода для pde-ограничения оптимизации

Я пытаюсь понять, как метод оптимизации на основе сопряжения работает для ограниченной оптимизации PDE. В частности, я пытаюсь понять, почему сопряженный метод более эффективен для задач, в которых число проектных переменных велико, но «число уравнений мало». Что я понимаю: Рассмотрим следующую...