Вопросы с тегом «kernel-trick»

17
Как понять эффект RBF SVM

Как я могу понять, что делает ядро ​​RBF в SVM? Я имею в виду, что понимаю математику, но есть ли способ почувствовать, когда это ядро ​​будет полезным? Будут ли результаты от kNN связаны с SVM / RBF, поскольку RBF содержит векторные расстояния? Есть ли способ почувствовать ядро ​​полинома? Я знаю,...

16
Самая быстрая реализация SVM

Больше общего вопроса. Я использую rbf SVM для прогнозного моделирования. Я думаю, что моя текущая программа определенно нуждается в ускорении. Я использую Scikit Learn с грубым, чтобы точный поиск сетки + перекрестная проверка. Каждый запуск SVM занимает около минуты, но со всеми итерациями я все...

15
Ядро SVM: я хочу, чтобы интуитивное понимание отображения на пространство пространственных объектов было более многомерным, и как это делает возможным линейное разделение

Я пытаюсь понять интуицию ядра SVM. Теперь я понимаю, как работает линейный SVM, благодаря чему создается линия принятия решений, которая разбивает данные как можно лучше. Я также понимаю принцип, лежащий в основе переноса данных в многомерное пространство, и то, как это может облегчить нахождение...

14
Как доказать, что для ядра гауссовского RBF не существует конечномерного пространства признаков?

Как доказать, что для радиальной базисной функции не существует конечномерного пространства признаковHтакого, что для некоторогоимеем?k(x,y)=exp(−||x−y||2)2σ2)k(x,y)=exp⁡(−||x−y||2)2σ2)k(x, y) = \exp(-\frac{||x-y||^2)}{2\sigma^2})HHHΦ:Rn→HΦ:Rn→H\Phi: \text{R}^n \to...

14
Понимание регрессии гауссовского процесса через бесконечномерное представление базисной функции

Часто говорят, что регрессия Гауссова процесса соответствует (GPR) байесовской линейной регрессии с (возможно) бесконечным количеством базисных функций. В настоящее время я пытаюсь понять это в деталях, чтобы понять, какие модели я могу выразить, используя GPR. Как вы думаете, это хороший подход,...

13
Должен ли я использовать трюк с ядром, когда это возможно, для нелинейных данных?

Недавно я узнал об использовании трюка Ядра, который отображает данные в пространства более высоких измерений в попытке линеаризовать данные в этих измерениях. Есть ли случаи, когда я должен избегать использования этой техники? Это просто вопрос поиска правильной функции ядра? Для линейных данных...

12
Как эффективно вычислить ядро ​​Гаусса в numpy [закрыто]

Закрыто. Этот вопрос не по теме . В настоящее время он не принимает ответы. Хотите улучшить этот вопрос? Обновите вопрос, чтобы он соответствовал теме перекрестной проверки. Закрыто 3 года назад . У меня есть пустой массив с m столбцами и n строками, столбцы с размерами и точками данных строк....

12
Взаимосвязь между количеством векторов поддержки и количеством функций

Я запустил SVM для данного набора данных и сделал следующее наблюдение: если я изменю количество функций для построения классификатора, число результирующих векторов поддержки также будет изменено. Я хотел бы знать, как объяснить такой...

12
Kernelised k Ближайший сосед

Я новичок в ядрах и попал в ловушку при попытке ядра KNN. прелиминарии Я использую ядро ​​с полиномами: K(x,y)=(1+⟨x,y⟩)dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d Ваш типичный евклидов kNN использует следующую метрику расстояния:...

12
Метод Нистроема для аппроксимации ядра

Я читал о методе Nyström для апроксимации ядра низкого ранга. Этот метод реализован в scikit-learn [1] как метод проецирования выборок данных в низкосортное приближение отображения характеристик ядра. Насколько мне известно, данный учебный набор и функция ядра, она генерирует низкокачественного...

12
Как выбрать ядро ​​для ядра PCA?

Какими способами можно выбрать, какое ядро ​​приведет к хорошему разделению данных при окончательном выводе данных ядром PCA (анализ основных компонентов), и как оптимизировать параметры ядра? Условия Лаймана, если это возможно, будут высоко оценены, и ссылки на статьи, которые объясняют такие...

11
Чувствительна ли машина опорных векторов к корреляции между атрибутами?

Я хотел бы обучить SVM для классификации дел (ИСТИНА / ЛОЖЬ) на основе 20 атрибутов. Я знаю, что некоторые из этих атрибутов тесно взаимосвязаны. Поэтому мой вопрос: чувствителен ли SVM к корреляции или избыточности между функциями? Любая...

11
Эффективность регрессии ядра Риджа

Ридж регрессия может быть выражена как у = ( X ' X + I г ) - 1 X х , где у являюсь прогнозируемым метка, я d в d × d определить матрицу, х объект мы пытаемся найти лейбл для, и х в п × d матрица п объектов х я = ( х я , 1 , . . .y^=(X′X+aId)−1Xxy^=(X′X+aId)−1Xx\hat{y} = (\mathbf{X'X} +...

11
Теорема Мерсера работает наоборот?

У коллеги есть функция и для наших целей это черный ящик. Функция измеряет сходство s ( a , b ) двух объектов.ssss(a,b)s(a,b)s(a,b) Мы точно знаем, что обладает следующими свойствами:sss Значения сходства представляют собой действительные числа от 0 до 1 включительно. Только объекты, которые...

10
Каковы ограничения методов ядра и когда использовать методы ядра?

Методы ядра очень эффективны во многих контролируемых задачах классификации. Итак, каковы ограничения методов ядра и когда использовать методы ядра? Каковы успехи методов ядра, особенно в эпоху крупномасштабных данных? В чем разница между методами ядра и обучением нескольких экземпляров? Если...

10
R линейная регрессия категориальной переменной «скрытое» значение

Это всего лишь пример, с которым я сталкивался несколько раз, поэтому у меня нет примеров данных. Запуск модели линейной регрессии в R: a.lm = lm(Y ~ x1 + x2) x1является непрерывной переменной x2является категориальным и имеет три значения, например, «Низкий», «Средний» и «Высокий». Однако вывод,...

10
Помимо ядер Фишера

Какое-то время казалось, что ядра Фишера могут стать популярными, поскольку они, похоже, являются способом построения ядер из вероятностных моделей. Однако я редко видел, чтобы они использовались на практике, и у меня есть все основания полагать, что они не очень хорошо работают. Они полагаются на...

10
Какие методы существуют для настройки гиперпараметров ядра графов SVM?

У меня есть некоторые данные, которые существуют на графе . Вершины принадлежат одному из двух классов y i ∈ { - 1 , 1 } , и я заинтересован в обучении SVM различать эти два класса. Одним подходящее ядро для этого является в диффузии ядро , К = ехру ( - β L ) , где L является лапласианом из G и β...