Я знаю, что k-means не контролируется и используется для кластеризации и т. Д., А k-NN контролируется. Но я хотел узнать конкретные различия между
Классификаторы k-Nearest-Neighbor Эти классификаторы основаны на памяти и не требуют подгонки модели. Для заданной точки запроса x0 мы находим k обучающих точек x (r), r = 1, ..., k, ближайших к расстоянию до x0, и затем классифицируем их большинством голосов среди k соседей.
Я знаю, что k-means не контролируется и используется для кластеризации и т. Д., А k-NN контролируется. Но я хотел узнать конкретные различия между
Я хочу создать сюжет, описанный в книге ElemStatLearn «Элементы статистического обучения: сбор данных, вывод и прогноз. Второе издание» Тревора Хасти, Роберта Тибширани и Джерома Фридмана. Сюжет: Мне интересно, как я могу получить этот точный график R, особенно обратите внимание на графику сетки и...
Я только что наткнулся на эту статью , в которой описывается, как вычислить повторяемость (или надежность, или внутриклассовую корреляцию) измерения с помощью моделирования смешанных эффектов. Код R будет: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc =...
Из того, что я понимаю, мы можем построить только регрессионную функцию, которая находится в интервале данных обучения. Например (необходима только одна из панелей): Как бы я мог предсказать будущее, используя регрессор KNN? Опять же, это, кажется, только приближает функцию, которая находится в...
Я немного новичок в изучении данных / машинного обучения / и т.д. и читали о нескольких способах объединения нескольких моделей и прогонов одной и той же модели для улучшения прогнозов. У меня сложилось впечатление, что после прочтения пары статей (которые часто интересны и хороши в теории и...
В 1999 году Beyer et al. спросил, когда смысл "Ближайший сосед"? Существуют ли лучшие способы анализа и визуализации влияния плоскостности расстояний на поиск NN с 1999 года? Предоставляет ли [данный] набор данных значимые ответы на проблему 1-NN? Проблема 10-НН? Проблема 100-НН? Как бы вы,...
Какова временная сложность алгоритма k -NN с наивным поисковым подходом (без дерева kd или подобных)? Меня интересует его временная сложность, учитывая также гиперпараметр k . Я нашел противоречивые ответы: O (nd + kn), где n - количество обучающих наборов, а d - размерность каждой выборки. [1] O...
Кажется, что KNN - это дискриминационный алгоритм обучения, но я не могу найти никаких онлайн-источников, подтверждающих это. Является ли KNN дискриминационным алгоритмом...
Места, которые я читал о проклятии размерности, объясняют его в первую очередь в связи с kNN и линейными моделями в целом. Я регулярно вижу топ-рейтингов в Kaggle, использующих тысячи функций в наборе данных, который вряд ли имеет 100 тыс. Точек данных. Они в основном используют Boosted деревья и...
Может кто-нибудь объяснить мне, почему вам нужно нормализовать данные при использовании K ближайших соседей. Я пытался найти это, но я все еще не могу понять это. Я нашел следующую ссылку: https://discuss.analyticsvidhya.com/t/why-it-is-necessary-to-normalize-in-knn/2715 Но в этом объяснении я не...
Я выполнил 5-кратное резюме, чтобы выбрать оптимальный K для KNN. И кажется, что чем больше К, тем меньше ошибка ... Извините, у меня не было легенды, но разные цвета представляют разные испытания. Всего их 5, и кажется, что между ними мало различий. Кажется, что ошибка всегда уменьшается, когда K...
Я ищу пакет вменения KNN. Я искал пакет вменения ( http://cran.r-project.org/web/packages/imputation/imputation.pdf ), но по какой-то причине вменяемая функция KNN (даже если следовать примеру из описания) только кажется вменять нулевые значения (согласно ниже). Я оглядывался по сторонам, но пока...
Я программирую алгоритм kNN и хотел бы знать следующее: Тай-брейки: Что произойдет, если в голосовании большинства нет явного победителя? Например, все k ближайших соседей принадлежат к разным классам, или для k = 4 есть 2 соседа из класса A и 2 соседа из класса B? Что происходит, если невозможно...
Я понимаю причину нормализации столбцов, поскольку она приводит к одинаковому взвешиванию объектов, даже если они не измеряются в одном и том же масштабе - однако часто в литературе ближайшего соседа столбцы и строки нормализуются. Что такое нормализация строк для / почему нормализация строк? В...
Кто-нибудь может сообщить о своем опыте с адаптивной оценкой плотности ядра? (Существует много синонимов: адаптивный | переменная | переменная-ширина, KDE | гистограмма | интерполятор ...) Переменная оценка плотности ядра говорит: «мы меняем ширину ядра в разных областях выборочного пространства....
Я новичок в ядрах и попал в ловушку при попытке ядра KNN. прелиминарии Я использую ядро с полиномами: K(x,y)=(1+⟨x,y⟩)dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d Ваш типичный евклидов kNN использует следующую метрику расстояния:...
В Элементах Статистического Изучения введена проблема, чтобы выделить проблемы с k-nn в многомерных пространствах. Есть точек данных, которые равномерно распределены в мерном единичном шаре.NNNpпp Среднее расстояние от начала координат до ближайшей точки данных определяется выражением:...
Согласно какой-то статье, которую я читаю, расстояние Джеффриса и Матуситы обычно используется. Но я не мог найти много информации об этом, кроме формулы ниже JMD (x, y) =∑(xi−−√2−yi−−√2)2−−−−−−−−−−−−−√2∑(xi2−yi2)22\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i})^2} Это похоже на евклидово расстояние, за...
Я читаю книгу Кевина Мерфи: Машинное обучение - вероятностная перспектива. В первой главе автор объясняет проклятие размерности, и есть часть, которую я не понимаю. В качестве примера автор заявляет: Рассмотрим входы, равномерно распределенные по D-мерному единичному кубу. Предположим, что мы...
Как я понял, k-NN - это алгоритм для ленивых учеников, и он не требует фазы обучения. Так зачем нам использовать .fit()sklearn и что происходит, когда мы его