Я изучаю разницу между регуляризацией в регрессии RKHS и линейной регрессией, но мне трудно понять решающее различие между ними.
Учитывая пары ввода-вывода , я хочу оценить функцию следующим образом: где - функция ядра. Коэффициенты можно найти, решив где с некоторым неправильным обозначением i -й элемент матрицы ядра K это {\ displaystyle K (x_ {i}, x_ {j})} . Это дает \ begin {уравнение} \ alpha ^ * = (K + \ lambda nI) ^ {- 1} Y. \ конец {} уравнение
В качестве альтернативы, мы могли бы рассматривать эту проблему как проблему нормальной регрессии / линейной регрессии:
с решением
Какова будет принципиальная разница между этими двумя подходами и их решениями?
Ответы:
Как вы, наверное, заметили, записывая задачи оптимизации, единственное различие в минимизации состоит в том, какую норму Гильберта использовать для наказания. То есть, чтобы определить, какие «большие» значения используются для целей наказания. В настройке RKHS мы используем внутренний продукт RKHS, , тогда как регрессия гребня штрафует по отношению к евклидовой норме.α αtKα
Интересный теоретический результат является , как каждым метод эффектов спектров воспроизводящего ядра . Согласно теории RKHS, симметрично положительно определен. По спектральной теореме можно написать где - диагональная матрица собственных значений, а - ортонормированная матрица собственных векторов. Следовательно, в настройке RKHS Между тем, в настройке регрессии Риджа обратите внимание, что по симметрии,K K K=UtDU D U
В зависимости от выбора ядра две оценки для могут быть близки или удалены друг от друга. Расстояние в смысле нормы оператора будет Однако, это все еще ограничено для данногоα
На практике трудно сказать однозначно, является ли одно лучше другого в данной ситуации. Поскольку мы минимизируем квадратичную ошибку при представлении данных в терминах функции ядра, мы эффективно выбираем лучшую регрессионную кривую из соответствующего гильбертова пространства функций. Следовательно, наказание по отношению к внутреннему продукту RKHS, кажется, естественный путь.
источник