Вопросы с тегом «machine-learning»

41
Чем softmax_cross_entropy_with_logits отличается от softmax_cross_entropy_with_logits_v2?

В частности, я предполагаю, что мне интересно это утверждение: Будущие основные версии TensorFlow позволят градиентам перетекать в метки, введенные на backprop по умолчанию. Который показан, когда я использую tf.nn.softmax_cross_entropy_with_logits. В том же сообщении он призывает меня взглянуть...

41
Панды / Statsmodel / Scikit-Learn

Являются ли Pandas, Statsmodels и Scikit-learn разными реализациями машинного обучения / статистических операций, или они дополняют друг друга? Какой из них обладает наиболее полной функциональностью? Какой из них активно разрабатывается и / или поддерживается? Я должен осуществить логистическую...

41
Как интерпретировать ошибки меры?

Я запускаю классификацию в Weka для определенного набора данных, и я заметил, что если я пытаюсь предсказать номинальное значение, выходные данные конкретно показывают правильно и неправильно предсказанные значения. Тем не менее, теперь я запускаю его для числового атрибута и вывод: Correlation...

41
Практическая оптимизация гиперпараметров: случайный поиск по сетке

В настоящее время я прохожу случайный поиск по гиперпараметрической оптимизации Bengio и Bergsta [1], где авторы утверждают, что случайный поиск более эффективен, чем поиск по сетке, для достижения примерно одинаковой производительности. Мой вопрос: согласны ли здесь люди с этим утверждением? В...

40
Нормализация и стандартизация данных в нейронных сетях

Я пытаюсь предсказать результат сложной системы, используя нейронные сети (ИНС). Исходные (зависимые) значения находятся в диапазоне от 0 до 10000. Разные входные переменные имеют разные диапазоны. Все переменные имеют примерно нормальное распределение. Я рассматриваю разные варианты...

40
Меры переменной значимости в случайных лесах

Я играл со случайными лесами для регрессии, и мне трудно понять, что именно означают эти два показателя важности и как их следует интерпретировать. importance()Функция дает два значения для каждой переменной: %IncMSEи IncNodePurity. Есть ли простые интерпретации для этих двух значений? В...

40
Напомним и точность в классификации

Я прочитал некоторые определения отзыва и точности, хотя это каждый раз в контексте поиска информации. Мне было интересно, может ли кто-нибудь объяснить это немного подробнее в контексте классификации и, возможно, проиллюстрировать некоторые примеры. Скажем, например, у меня есть двоичный...

40
Как прямолинейная функция активации решает проблему исчезающего градиента в нейронных сетях?

Я нашел выпрямленную линейную единицу (ReLU), восхваляемую в нескольких местах как решение проблемы исчезающего градиента для нейронных сетей. То есть, в качестве функции активации используется max (0, x). Когда активация положительна, очевидно, что это лучше, чем, скажем, функция активации...

39
LDA против word2vec

Я пытаюсь понять, в чем сходство скрытого распределения Дирихле и word2vec для вычисления сходства слов. Как я понимаю, LDA отображает слова в вектор вероятностей скрытых тем, в то время как word2vec отображает их в вектор действительных чисел (относительно разложения по сингулярным точкам...

38
Онлайн против автономного обучения?

В чем разница между автономным и онлайн обучением ? Это просто вопрос обучения по всему набору данных (в автономном режиме) или обучения постепенно (по одному экземпляру за раз)? Какие примеры алгоритмов используются в...

38
Каковы различия между «эпохой», «партией» и «мини-партией»?

Насколько я знаю, при принятии Stochastic Gradient Descent в качестве алгоритма обучения кто-то использует «эпоху» для полного набора данных и «пакет» для данных, используемых на одном этапе обновления, тогда как другой использует соответственно «пакет» и «мини-пакет», и другие используют «эпоху» и...

38
Что такое трансляционная инвариантность в компьютерном зрении и сверточной нейронной сети?

У меня нет компьютерного зрения, но когда я читаю некоторые статьи и статьи, связанные с обработкой изображений и сверточными нейронными сетями, я постоянно сталкиваюсь с термином translation invarianceили translation invariant. Или я много читал, что обеспечивает операция свертки translation...

38
Руководство по выбору гиперпараметров в Deep Learning

Я ищу статью, которая могла бы помочь дать руководство о том, как выбирать гиперпараметры глубокой архитектуры, такие как многоуровневые авто-кодеры или сети с глубоким доверием. Существует много гиперпараметров, и я очень запутался в том, как их выбирать. Также использование перекрестной проверки...

37
Вариационный вывод по сравнению с MCMC: когда выбрать один из других?

Я думаю, что я получил общее представление о VI и MCMC, включая различные разновидности MCMC, такие как выборка Гиббса, Metropolis Hastings и т. Д. Эта статья представляет собой прекрасное изложение обоих методов. У меня есть следующие вопросы: Если я хочу сделать байесовский вывод, почему я выбрал...

37
Является ли сильный фон в математике общим требованием для ML?

Я начинаю хотеть развивать свой собственный набор навыков, и я всегда был очарован машинным обучением. Однако шесть лет назад вместо того, чтобы заниматься этим, я решил получить совершенно иную степень в области компьютерных наук. Я занимаюсь разработкой программного обеспечения и приложений уже...

37
Применение методов машинного обучения на сайтах StackExchange

В этом семестре у меня есть курс по машинному обучению, и профессор попросил нас найти реальную проблему и решить ее одним из методов машинного обучения, представленным в классе: Деревья решений Искусственные нейронные сети Опорные векторные машины Обучение на основе экземпляров ( кНН , LWL )...

37
Улучшение классификации со многими категориальными переменными

Я работаю над набором данных с 200 000+ выборок и примерно 50 объектами на выборку: 10 непрерывных переменных, а остальные ~ 40 являются категориальными переменными (страны, языки, научные области и т. Д.). Для этих категориальных переменных у вас есть, например, 150 разных стран, 50 языков, 50...

37
Дисперсия кратных оценок перекрестной проверки как : какова роль «устойчивости»?

TL, DR: кажется, что, вопреки часто повторяемым советам, перекрестная проверка «один-один-один» (LOO-CV), то естькратное CV, где(количество сгибов) равно(число обучающих наблюдений) - дает оценки ошибки обобщения, которые являются наименьшей переменной для любого, а не самой переменной, предполагая...

37
Если интерес представляет только прогноз, зачем использовать лассо над хребтом?

На странице 223 «Введение в статистическое обучение» авторы суммируют различия между регрессией гребня и лассо. Они предоставляют пример (рис. 6.9) того, когда «лассо имеет тенденцию превосходить регрессию гребня с точки зрения смещения, дисперсии и MSE». Я понимаю, почему лассо может быть...