Скажем, мы оптимизируем модель с параметрами , минимизируя некоторый критерий учетом ограничения на величину вектора параметров (например, для реализации подхода минимизации структурного риска путем построение вложенного набора моделей возрастающей сложности), нам необходимо решить: ; F( → & thetas ; )θ⃗ f(θ⃗ )
minθ⃗ f(θ⃗ )s.t.∥θ⃗ ∥2<C
Лагранжиан для этой проблемы (предостережение: я думаю, это был длинный день ... ;-)
Λ(θ⃗ ,λ)=f(θ⃗ )+λ∥θ⃗ ∥2−λC.
Таким образом, легко увидеть, что регуляризованная функция стоимости тесно связана с проблемой оптимизации с ограничениями, причем параметр регуляризации связан с константой, управляющей ограничением ( ), и, по сути, является множителем Лагранжа. λC
Это иллюстрирует, почему, например, регрессия гребня реализует структурную минимизацию риска: Регуляризация эквивалентна наложению ограничения на величину вектора весов, и если то каждая модель, которая может быть сделана при соблюдении ограничения, котороеC1>C2
∥θ⃗ ∥2<C2
также будет доступен под ограничением
∥θ⃗ ∥2<C1 .
Следовательно, уменьшение порождает последовательность пространств гипотез возрастающей сложности.λ