Вопросы с тегом «machine-learning»

21
Разница между скрытыми марковскими моделями и фильтром частиц (и фильтром Калмана)

Вот мой старый вопрос Я хотел бы спросить, знает ли кто-нибудь разницу (если есть какая-либо разница) между скрытыми марковскими моделями (HMM) и Particle Filter (PF), и, как следствие, Kalman Filter, или при каких обстоятельствах мы используем какой алгоритм. Я студент, и я должен сделать проект,...

20
Как случайный лес генерирует случайный лес

Я не эксперт по случайным лесам, но я четко понимаю, что ключевая проблема со случайным лесом - это (случайное) генерирование деревьев. Можете ли вы объяснить мне, как создаются деревья? (т.е. что такое используемый дистрибутив для генерации дерева?) Заранее спасибо !...

20
Разница между отсутствующими данными и разреженными данными в алгоритмах машинного обучения

Каковы основные различия между разреженными данными и отсутствующими данными? И как это влияет на машинное обучение? В частности, как редкие и отсутствующие данные влияют на алгоритмы классификации и регрессионные (прогнозирующие числа) типы алгоритмов. Я говорю о ситуации, когда процент...

20
Какие методы оптимизации лучше всего подходят для LSTM?

Я использовал theano для экспериментов с LSTM, и мне было интересно, какие методы оптимизации (SGD, Adagrad, Adadelta, RMSprop, Adam и т. Д.) Лучше всего подходят для LSTM? Есть ли исследовательские работы на эту тему? Кроме того, зависит ли ответ от типа приложения, для которого я использую LSTM?...

20
Почему работает особенность инженерии?

Недавно я узнал, что одним из способов найти лучшее решение проблем ОД является создание функций. Это можно сделать, например, суммируя две особенности. Например, мы обладаем двумя функциями «атака» и «защита» какого-то героя. Затем мы создаем дополнительную функцию под названием «общее», которая...

20
Почему AUC = 1, даже классификатор неправильно классифицировал половину выборок?

Я использую классификатор, который возвращает вероятности. Для расчета AUC я использую pROC R-пакет. Вероятности выхода из классификатора: probs=c(0.9865780, 0.9996340, 0.9516880, 0.9337157, 0.9778576, 0.8140116, 0.8971550, 0.8967585, 0.6322902, 0.7497237) probsпоказывает вероятность быть в классе...

20
AdaBoost менее или более склонен к переоснащению?

Я читал различные (казалось бы) противоречивые утверждения, независимо от того, являются ли AdaBoost (или другие методы повышения) менее или более склонными к переобучению по сравнению с другими методами обучения. Есть ли веские причины верить тому или иному? Если это зависит, от чего это зависит?...

20
Где и почему глубокое обучение сияет?

Со всеми разговорами в средствах массовой информации и шумихой о глубоком изучении в эти дни я прочитал некоторые элементарные вещи об этом. Я только что обнаружил, что это просто еще один метод машинного обучения для изучения шаблонов на основе данных. Но мой вопрос: где и почему этот метод...

20
Обсуждение об оверфите в xgboost

Моя установка следующая: Я следую указаниям в разделе «Прикладное прогнозное моделирование». Таким образом, я отфильтровал взаимосвязанные функции и в итоге получил следующее: 4900 точек данных в тренировочном наборе и 1600 точек данных в тестовом наборе. У меня есть 26 функций, и цель является...

20
Глубокое обучение: Как узнать, какие переменные важны?

С точки зрения языка нейронной сети (у = вес * х + смещение), как я узнаю, какие переменные являются более важными, чем другие? У меня есть нейронная сеть с 10 входами, 1 скрытый слой с 20 узлами и 1 выходной слой с 1 узлом. Я не уверен, как узнать, какие входные переменные являются более...

20
В чем разница между инициализатором масштабирования дисперсии и инициализатором xavier?

Я обнаружил, что в реализации ResNet от Tensorflow они используют инициализатор дисперсионного масштабирования, а также популярный инициализатор xavier . У меня нет большого опыта в этом, что лучше на...

20
В машинном обучении, почему надстрочные знаки используются вместо индексов?

Я прохожу курс Эндрю Нг по машинному обучению через Coursera . Для уравнений вместо индексов используются верхние индексы. Например, в следующем уравнении используется вместо : х яx(i)x(i)x^{(i)}xixix_i J(θ0,θ1)=12m∑i=1m(hθ(x(i))−y(i))2J(θ0,θ1)=12m∑i=1m(hθ(x(i))−y(i))2J(\theta_0, \theta_1) =...

20
Почему обрезка не нужна для случайных лесных деревьев?

Брейман говорит, что деревья выращены без обрезки. Почему? Я хочу сказать, что должна быть веская причина, по которой деревья в случайном лесу не обрезаются. С другой стороны, считается очень важным обрезать единственное дерево решений, чтобы избежать перебора. Есть ли литература для чтения по этой...

20
Предупреждение libsvm «достижение максимального числа итераций» и перекрестная проверка

Я использую libsvm в режиме C-SVC с полиномиальным ядром степени 2, и мне необходимо обучить несколько SVM. Каждый тренировочный набор имеет 10 функций и 5000 векторов. Во время обучения я получаю это предупреждение для большинства SVM, которые я тренирую: WARNING: reaching max number of iterations...

20
Понимание происхождения компромисса смещения дисперсии

Я читаю главу о компромиссах смещения дисперсии элементов статистического обучения, и у меня есть сомнения в формуле на стр. 29. Пусть данные возникают из такой модели, что где - случайный число с ожидаемым значением и дисперсией . Пусть ожидаемое значение ошибки модели составляет где - это...

20
Нужно ли нам еще выбирать функции при использовании алгоритмов регуляризации?

У меня есть один вопрос, касающийся необходимости использовать методы выбора признаков (значение важности признаков в случайных лесах или методы выбора однофакторных объектов и т. Д.) Перед запуском алгоритма статистического обучения. Мы знаем, что во избежание переобучения мы можем ввести штраф за...

20
Машинное обучение, чтобы предсказать вероятность класса

Я ищу классификаторы, которые выводят вероятности того, что примеры принадлежат одному из двух классов. Я знаю о логистической регрессии и наивных байесовских, но можете ли вы рассказать мне о других, которые работают аналогичным образом? То есть классификаторы, которые предсказывают не классы, к...

20
Почему обратное распространение не работает, когда вы инициализируете весовые значения одного и того же значения?

Почему обратное распространение не работает, когда вы инициализируете все веса одним и тем же значением (скажем, 0,5), но работает нормально, когда заданы случайные числа? Разве алгоритм не должен вычислять ошибку и работать оттуда, несмотря на то, что веса изначально...

20
В чем разница между обучением и умозаключением?

В научных работах по машинному обучению часто рассматриваются обучение и умозаключение как две отдельные задачи, но мне не совсем понятно, в чем заключается различие. В этой книге , например , они используют байесовской статистики для обоих видов задач, но не обеспечивают мотивацию для этого...

20
Дистанционное наблюдение: под наблюдением, под наблюдением или оба?

«Дистанционный контроль» - это схема обучения, в которой классификатор обучается с использованием слабо маркированного обучающего набора (данные обучения автоматически маркируются на основе эвристики / правил). Я думаю, что как контролируемое обучение, так и полууправляемое обучение могут включать...