Вопросы с тегом «deep-learning»

38
Руководство по выбору гиперпараметров в Deep Learning

Я ищу статью, которая могла бы помочь дать руководство о том, как выбирать гиперпараметры глубокой архитектуры, такие как многоуровневые авто-кодеры или сети с глубоким доверием. Существует много гиперпараметров, и я очень запутался в том, как их выбирать. Также использование перекрестной проверки...

37
Что мне делать, если моя нейронная сеть плохо обобщается?

Я тренирую нейронную сеть, и потери на обучение уменьшаются, но потери на валидацию не уменьшаются или уменьшаются намного меньше, чем я ожидал, основываясь на ссылках или экспериментах с очень похожими архитектурами и данными. Как я могу это исправить? Что касается вопроса Что мне делать, если моя...

37
Почему регуляризация не устраняет голод данных в Deep Neural Nets?

Проблема, с которой я часто сталкивался в контексте нейронных сетей в целом и глубоких нейронных сетей в частности, заключается в том, что они «жаждут данных» - то есть они плохо работают, если у нас нет большого набора данных с помощью которого тренируется сеть. Насколько я понимаю, это связано с...

35
Каковы различия между разреженным кодированием и автоэнкодером?

Разреженное кодирование определяется как изучение слишком полного набора базовых векторов для представления входных векторов (<- зачем нам это нужно). Каковы различия между разреженным кодированием и автоэнкодером? Когда мы будем использовать разреженное кодирование и...

35
Добавлены ли пулы слоев до или после выпадающих слоев?

Я создаю сверточную нейронную сеть (CNN), где у меня есть сверточный слой, за которым следует слой пула, и я хочу применить выпадение для уменьшения переобучения. У меня такое чувство, что слой удаления должен быть применен после слоя объединения, но у меня нет ничего, чтобы поддержать это. Где...

33
Предварительная подготовка в глубокой сверточной нейронной сети?

Кто-нибудь видел какую-нибудь литературу по предварительной подготовке в глубокой сверточной нейронной сети? Я видел только неконтролируемую предварительную подготовку в автоэнкодере или ограниченных машинах...

32
Каково определение «карты объектов» (она же «карта активации») в сверточной нейронной сети?

 Введение Фон Внутри сверточной нейронной сети мы обычно имеем общую структуру / поток, который выглядит следующим образом: входное изображение (т.е. 2D вектор x) (1-й сверточный слой (Conv1) начинается здесь ...) свертывать набор фильтров ( w1) вдоль двумерного изображения (т. е. делать z1 = w1*x...

32
Почему нет механизмов глубокого обучения шахматам, похожих на AlphaGo?

Компьютеры в течение долгого времени могли играть в шахматы, используя метод "грубой силы", исследуя определенную глубину и затем оценивая позицию. Компьютер AlphaGo, однако, использует только ANN для оценки позиций (насколько я знаю, он не выполняет поиск по глубине). Можно ли создать шахматный...

31
Почему точность проверки колеблется?

У меня есть четырехслойный CNN для прогнозирования ответа на рак с использованием данных МРТ. Я использую активацию ReLU для введения нелинейностей. Точность и потеря поезда монотонно увеличиваются и уменьшаются соответственно. Но точность моего теста начинает сильно колебаться. Я попытался...

31
В чем разница между «глубоким обучением» и многоуровневым / иерархическим моделированием?

Является ли «глубокое обучение» просто еще одним термином для многоуровневого / иерархического моделирования? Я гораздо больше знаком с последним, чем с первым, но, насколько я могу судить, основное отличие заключается не в их определении, а в том, как они используются и оцениваются в пределах...

31
Создание автоэнкодера в Tensorflow, чтобы превзойти PCA

Хинтон и Салахутдинов в статье « Сокращение размерности данных с помощью нейронных сетей», Science 2006, предложили нелинейный PCA за счет использования глубокого автоэнкодера. Я несколько раз пытался построить и обучить автоэнкодер PCA с Tensorflow, но мне никогда не удавалось получить лучший...

30
Чему научилась моя нейронная сеть? Какие особенности это волнует и почему?

Нейронная сеть изучает особенности набора данных как средство достижения определенной цели. Когда это будет сделано, мы можем захотеть узнать, чему научилась нейронная сеть. Каковы были особенности и почему это заботилось о тех. Может кто-нибудь дать какие-то ссылки на основной объем работ,...

29
Как работать с иерархическими / вложенными данными в машинном обучении

Я объясню мою проблему на примере. Предположим, вы хотите предсказать доход человека с учетом некоторых атрибутов: {Возраст, Пол, Страна, Регион, Город}. У вас есть тренировочный набор данных, как так train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4,...

28
Как это возможно, что потери проверки увеличиваются, в то время как точность проверки также увеличивается

Я обучаю простую нейронную сеть на наборе данных CIFAR10. Через некоторое время потери валидации начали увеличиваться, а точность валидации также увеличивается. Потери и точность испытаний продолжают улучшаться. Как это возможно? Кажется, что если потери при проверке возрастают, точность должна...

27
Разве нельзя сказать, что модели глубокого обучения можно интерпретировать? Особенности узлов?

Для статистических моделей и моделей машинного обучения существует несколько уровней интерпретируемости: 1) алгоритм в целом, 2) части алгоритма в целом, 3) части алгоритма на конкретных входных данных, и эти три уровня разбиты на две части каждая, один для обучения и один для функции eval....

27
Могут ли степени свободы быть нецелым числом?

Когда я использую GAM, он дает мне остаточный DF, (последняя строка в коде). Что это значит? Выходя за рамки примера GAM, в общем, может ли число степеней свободы быть нецелым числом?26,626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data =...

27
Может ли глубокая нейронная сеть приблизить функцию умножения без нормализации?

Допустим, мы хотим сделать регрессию для простого f = x * yиспользования стандартной глубокой нейронной сети. Я помню, что есть исследования, которые говорят о том, что NN с одним скрытым слоем может апоксировать любую функцию, но я пытался и без нормализации NN не смог приблизиться даже к этому...