Гауссово RBF против гауссова ядра

18

В чем разница между выполнением линейной регрессии с помощью гауссовой радиальной базисной функции (RBF) и выполнением линейной регрессии с использованием гауссовского ядра?

user35965
источник
Добро пожаловать на сайт, @ user35965. Пожалуйста, напишите свои аббревиатуры. Под «RBF» вы подразумеваете радиальную базисную функцию ?
gung - Восстановить Монику
2
Да, это то, что я имел в виду. Должным образом отмечено для дальнейшего использования.
user35965

Ответы:

19

Единственная реальная разница заключается в применяемой регуляризации. Регуляризованная сеть RBF обычно использует штраф, основанный на квадрате нормы весов. Для версии ядра штраф обычно накладывается на квадратичную норму весов линейной модели, неявно построенной в пространстве признаков, индуцированном ядром. Ключевое практическое отличие, которое это делает, состоит в том, что штраф за сеть RBF зависит от центров сети RBF (и, следовательно, от выборки используемых данных), тогда как для ядра RBF пространство индуцированных признаков является одинаковым независимо от выборки данные, поэтому штраф является штрафом за функцию модели, а не за ее параметризацию .

Другими словами, для обеих моделей мы имеем

f(x)=i=1αiK(xi,x)

Для сетевого подхода RBF критерием обучения является

L=i=1(yif(xi))2+λα2

Для метода ядра RBF у нас есть K(x,x)=ϕ(x)ϕ(x) и w=i=1αiϕ(xi) . Это означает, что квадрат нормы штрафа для весов модели в индуцированном пространстве признаков, w можно записать в терминах двойственных параметров, α как

w2=αTKα,

где - это матрица попарных оценок ядра для всех шаблонов обучения. Тогда критерий обученияK

L=i=1(yif(xi))2+λαTKα .

Единственное различие между этими двумя моделями заключается в в члене регуляризации.K

Ключевое теоретическое преимущество подхода на основе ядра состоит в том, что он позволяет интерпретировать нелинейную модель как линейную модель после фиксированного нелинейного преобразования, которое не зависит от выборки данных. Таким образом, любая статистическая теория обучения, существующая для линейных моделей, автоматически переходит к нелинейной версии. Тем не менее, все это ломается, как только вы пытаетесь настроить параметры ядра, и в этот момент мы возвращаемся к той же точке теоретически, как и в случае с нейронными сетями RBF (и MLP). Так что теоретическое преимущество, возможно, не так велико, как хотелось бы.

Это может реально повлиять на производительность? Наверное, не очень. Теоремы «без бесплатного обеда» предполагают, что нет никакого априорного превосходства какого-либо алгоритма над всеми другими, и различие в регуляризации довольно тонкое, поэтому, если сомневаетесь, попробуйте оба варианта и выберите лучший в соответствии, например, с перекрестной проверкой.

Дикран Сумчатый
источник
1
@CagdasOzgenc Да, для RBF регуляризатором является а не для компьютера ядра. Они станут более похожими , как ширина базисной функции приближается к нулю, будет приближаться . Я думаю, что это в основном потому, что учитывает корреляцию между основными функциями. α T K α K I Kα2=αTIααTKαKIK
Дикран Marsupial
@CagdasOzgenc С моей точки зрения, в регуляризаторе по-разному взвешивает штраф для каждого базисного вектора, а штраф зависит от выбора других базисных векторов. Этот вес зависит от их корреляции, поэтому, если вы выберете другую выборку, веса изменятся, чтобы компенсировать. Другой способ взглянуть на это состоит в том, что модель определяется в пространстве признаков, определяемом , которое не зависит от выбора базисных векторов (при условии, что они охватывают пространство, содержащее данные). ϕ ( x )Kϕ(x)
Дикран Marsupial
@CagdasOzgenc Конечно, мы можем преобразовать пространство базисных функций путем собственного разложения и вернуть регуляризатор в стиле (действительно, это полезный прием для оптимизации параметра регуляризации - doi.org/10.1016/j.neunet.2007.05.005 ). Однако это преобразование устраняет зависимость первоначального выбора базисной функции. Для того, чтобы две вещи были равны, потребуется , что, как правило, не так (особенно не для ядра RBF). α2 α T K α = μ α T I αKα2αTKα=μαTIα
Дикран Marsupial
Спасибо. Я поразмышляю над этим, вернусь к вам. На данный момент кажется, что я не на вашем уровне понимания. Мне нужно больше думать :).
Кагдас Озгенц
@CagdasOzgenc без проблем, большинство стандартных текстов объясняют это через собственные функции ядра, которые также делают мой мозг болящим! ; о)
Дикран Сумчатый