Вопросы с тегом «k-nearest-neighbour»

Классификаторы k-Nearest-Neighbor Эти классификаторы основаны на памяти и не требуют подгонки модели. Для заданной точки запроса x0 мы находим k обучающих точек x (r), r = 1, ..., k, ближайших к расстоянию до x0, и затем классифицируем их большинством голосов среди k соседей.

31
Как построить границу решения классификатора k-ближайшего соседа из элементов статистического обучения?

Я хочу создать сюжет, описанный в книге ElemStatLearn «Элементы статистического обучения: сбор данных, вывод и прогноз. Второе издание» Тревора Хасти, Роберта Тибширани и Джерома Фридмана. Сюжет: Мне интересно, как я могу получить этот точный график R, особенно обратите внимание на графику сетки и...

28
Вычисление повторяемости эффектов по модели Лмера

Я только что наткнулся на эту статью , в которой описывается, как вычислить повторяемость (или надежность, или внутриклассовую корреляцию) измерения с помощью моделирования смешанных эффектов. Код R будет: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc =...

26
Зачем кому-то использовать KNN для регрессии?

Из того, что я понимаю, мы можем построить только регрессионную функцию, которая находится в интервале данных обучения. Например (необходима только одна из панелей): Как бы я мог предсказать будущее, используя регрессор KNN? Опять же, это, кажется, только приближает функцию, которая находится в...

20
Объединение моделей машинного обучения

Я немного новичок в изучении данных / машинного обучения / и т.д. и читали о нескольких способах объединения нескольких моделей и прогонов одной и той же модели для улучшения прогнозов. У меня сложилось впечатление, что после прочтения пары статей (которые часто интересны и хороши в теории и...

19
Когда сегодня важен «Ближайший сосед»?

В 1999 году Beyer et al. спросил, когда смысл "Ближайший сосед"? Существуют ли лучшие способы анализа и визуализации влияния плоскостности расстояний на поиск NN с 1999 года? Предоставляет ли [данный] набор данных значимые ответы на проблему 1-NN? Проблема 10-НН? Проблема 100-НН? Как бы вы,...

18
k-NN вычислительная сложность

Какова временная сложность алгоритма k -NN с наивным поисковым подходом (без дерева kd или подобных)? Меня интересует его временная сложность, учитывая также гиперпараметр k . Я нашел противоречивые ответы: O (nd + kn), где n - количество обучающих наборов, а d - размерность каждой выборки. [1] O...

15
Влияет ли проклятие размерности на некоторые модели больше, чем на другие?

Места, которые я читал о проклятии размерности, объясняют его в первую очередь в связи с kNN и линейными моделями в целом. Я регулярно вижу топ-рейтингов в Kaggle, использующих тысячи функций в наборе данных, который вряд ли имеет 100 тыс. Точек данных. Они в основном используют Boosted деревья и...

15
Зачем вам нужно масштабировать данные в KNN

Может кто-нибудь объяснить мне, почему вам нужно нормализовать данные при использовании K ближайших соседей. Я пытался найти это, но я все еще не могу понять это. Я нашел следующую ссылку: https://discuss.analyticsvidhya.com/t/why-it-is-necessary-to-normalize-in-knn/2715 Но в этом объяснении я не...

15
Выбор оптимального К для КНН

Я выполнил 5-кратное резюме, чтобы выбрать оптимальный K для KNN. И кажется, что чем больше К, тем меньше ошибка ... Извините, у меня не было легенды, но разные цвета представляют разные испытания. Всего их 5, и кажется, что между ними мало различий. Кажется, что ошибка всегда уменьшается, когда K...

14
КНН импутации R пакетов

Я ищу пакет вменения KNN. Я искал пакет вменения ( http://cran.r-project.org/web/packages/imputation/imputation.pdf ), но по какой-то причине вменяемая функция KNN (даже если следовать примеру из описания) только кажется вменять нулевые значения (согласно ниже). Я оглядывался по сторонам, но пока...

13
Работа со связями, весами и голосованием в кНН

Я программирую алгоритм kNN и хотел бы знать следующее: Тай-брейки: Что произойдет, если в голосовании большинства нет явного победителя? Например, все k ближайших соседей принадлежат к разным классам, или для k = 4 есть 2 соседа из класса A и 2 соседа из класса B? Что происходит, если невозможно...

13
Какова цель нормализации строк

Я понимаю причину нормализации столбцов, поскольку она приводит к одинаковому взвешиванию объектов, даже если они не измеряются в одном и том же масштабе - однако часто в литературе ближайшего соседа столбцы и строки нормализуются. Что такое нормализация строк для / почему нормализация строк? В...

12
Адаптивные оценки плотности ядра?

Кто-нибудь может сообщить о своем опыте с адаптивной оценкой плотности ядра? (Существует много синонимов: адаптивный | переменная | переменная-ширина, KDE | гистограмма | интерполятор ...) Переменная оценка плотности ядра говорит: «мы меняем ширину ядра в разных областях выборочного пространства....

12
Kernelised k Ближайший сосед

Я новичок в ядрах и попал в ловушку при попытке ядра KNN. прелиминарии Я использую ядро ​​с полиномами: K(x,y)=(1+⟨x,y⟩)dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d Ваш типичный евклидов kNN использует следующую метрику расстояния:...

11
Пояснение формулы для медианы, ближайшей к началу N образцов из единичного шара

В Элементах Статистического Изучения введена проблема, чтобы выделить проблемы с k-nn в многомерных пространствах. Есть точек данных, которые равномерно распределены в мерном единичном шаре.NNNpпp Среднее расстояние от начала координат до ближайшей точки данных определяется выражением:...

11
Плюсы дистанции Джеффриса Матуситы

Согласно какой-то статье, которую я читаю, расстояние Джеффриса и Матуситы обычно используется. Но я не мог найти много информации об этом, кроме формулы ниже JMD (x, y) =∑(xi−−√2−yi−−√2)2−−−−−−−−−−−−−√2∑(xi2−yi2)22\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i})^2} Это похоже на евклидово расстояние, за...

11
Проклятие размерности: классификатор кНН

Я читаю книгу Кевина Мерфи: Машинное обучение - вероятностная перспектива. В первой главе автор объясняет проклятие размерности, и есть часть, которую я не понимаю. В качестве примера автор заявляет: Рассмотрим входы, равномерно распределенные по D-мерному единичному кубу. Предположим, что мы...