Вопросы с тегом «neural-networks»

14
Нейронная сеть - двоичный или дискретный / непрерывный ввод

Есть ли веские причины для предпочтения двоичных значений (0/1) дискретным или непрерывным нормализованным значениям, например (1; 3), в качестве входных данных для сети прямой связи для всех входных узлов (с обратным распространением или без него)? Конечно, я говорю только о входах, которые могут...

14
Обучите нейронную сеть, чтобы различать четные и нечетные числа

Вопрос: можно ли обучить NN различать нечетные и четные числа, используя только в качестве входных данных сами числа? У меня есть следующий набор данных: Number Target 1 0 2 1 3 0 4 1 5 0 6 1 ... ... 99 0 100 1 Я тренировал NN с двумя входными нейронами (один из которых был переменным числом,...

14
Карет глмнет против cv.glmnet

Кажется, существует большая путаница при сравнении использования glmnetвнутри caretдля поиска оптимальной лямбды и использования cv.glmnetдля выполнения той же задачи. Было задано много вопросов, например: Модель классификации train.glmnet против cv.glmnet? Как правильно использовать glmnet с...

14
Анализ чувствительности в глубоких нейронных сетях

После вопроса, на который уже дан ответ ( Извлечение важности веса из одноуровневой сети прямой связи ), я ищу вывод об актуальности входных данных в нейронных сетях. Рассматривая глубокую сеть, где восстановление важности ввода путем перехода назад через слои от интересующего выходного узла может...

14
Что означает слой узких мест в нейронных сетях?

Я читал документ FaceNet и в 3-м абзаце введения говорится: Предыдущие подходы к распознаванию лиц, основанные на глубоких сетях, используют уровень классификации, обученный на основе набора известных идентификаторов лиц, а затем используют промежуточный уровень узких мест в качестве представления,...

14
Зачем обратно размножаться во времени в РНН?

В рекуррентной нейронной сети вы, как правило, продвигаетесь вперед через несколько временных шагов, «разворачиваете» сеть, а затем распространяетесь обратно через последовательность входов. Почему бы вам не просто обновить веса после каждого отдельного шага в последовательности? (эквивалент...

14
Глубокие нейронные сети - только для классификации изображений?

Все примеры, которые я нашел, используя глубокие убеждения или сверточные нейронные сети, используют их для классификации изображений, распознавания разговоров или распознавания речи. Полезны ли глубокие нейронные сети для классических задач регрессии, где функции не структурированы (например, не...

14
Теорема универсальной аппроксимации для сверточных сетей

Теорема универсального приближения является довольно известным результатом для нейронных сетей, в основном утверждая, что при некоторых допущениях функция может быть равномерно аппроксимирована нейронной сетью с любой точностью. Есть ли аналогичный результат, применимый к сверточным нейронным...

14
CNN ксавье инициализация веса

В некоторых уроках я обнаружил, что было указано, что инициализация весов «Ксавье» (статья: Понимание сложности обучения глубоких нейронных сетей с прямой связью ) является эффективным способом инициализации весов нейронных сетей. Для полностью связанных слоев в этих уроках было практическое...

14
Ультрасовременный алгоритм обучения ансамбля в задачах распознавания образов?

Структура этого вопроса следующая: сначала я представляю концепцию обучения ансамблям , далее я даю список задач распознавания образов , затем я привожу примеры алгоритмов обучения ансамблям и, наконец, представляю свой вопрос. Те, кому не нужна вся дополнительная информация, могут просто...

14
Есть ли математические причины для свертки в нейронных сетях сверх целесообразности?

В сверточных нейронных сетях (CNN) матрица весов на каждом шаге переворачивает свои строки и столбцы для получения матрицы ядра, прежде чем приступить к свертке. Это объясняется в серии видео Хьюго Ларошелле здесь : Вычисление скрытых карт будет соответствовать выполнению дискретной свертки с...

14
В чем разница между эпизодом и эпохой в изучении глубокого Q?

Я пытаюсь понять знаменитую статью «Игра Atari с глубоким обучением подкреплению» ( pdf ). Я неясный о различии между эпохой и эпизодом . В алгоритме внешний цикл заканчивается эпизодами , а на рисунке ось х обозначена как эпоха . В контексте обучения подкреплению мне не ясно, что означает эпоха....

14
Сколько примеров обучения слишком мало при обучении нейронной сети?

Я новичок, пытающийся собрать свой первый проект. Я имел в виду проект классификации песен, но, поскольку я буду маркировать вручную, я смог собрать всего около 1000 песен или 60 часов музыки. Я бы классифицировал по нескольким классам, так что вполне возможно, что в одном классе будет всего 50-100...

13
Как получить реальный непрерывный выход из нейронной сети?

В большинстве примеров нейронных сетей, которые я видел до сих пор, сеть используется для классификации, а узлы трансформируются сигмоидальной функцией. Тем не менее, я хотел бы использовать нейронную сеть для вывода непрерывного реального значения (реально выходной сигнал обычно находится в...

13
Скрытая марковская модель против рекуррентной нейронной сети

Какие проблемы последовательного ввода лучше всего подходят для каждого? Определяет ли входная размерность, какое из них лучше подходит? Являются ли проблемы, для которых требуется «более длинная память», более подходящими для RNN LSTM, а проблемы с циклическими шаблонами ввода (фондовый рынок,...

13
Процедура и методы анализа временных рядов с использованием R

Я работаю над небольшим проектом, в котором мы пытаемся прогнозировать цены на товары (нефть, алюминий, олово и т. Д.) На ближайшие 6 месяцев. У меня есть 12 таких переменных для прогнозирования, и у меня есть данные за апрель 2008 года - май 2013 года. Как я должен идти о предсказании? Я сделал...

13
Как обратное распространение работает в сиамской нейронной сети?

Я изучал архитектуру сиамской нейронной сети, представленной Янном ЛеКуном и его коллегами в 1994 году для распознавания подписей ( «Проверка подписи с использованием сиамской нейронной сети с временной задержкой». Pdf, NIPS 1994) Я понял общую идею этой архитектуры, но я действительно не могу...

13
Классификация с шумными метками?

Я пытаюсь обучить нейронную сеть для классификации, но у меня довольно шумные ярлыки (около 30% ярлыков ошибочны). Потеря перекрестной энтропии действительно работает, но мне было интересно, есть ли альтернативы, более эффективные в этом случае? или потеря кросс-энтропии является оптимальной? Я не...

13
Почему RNN с блоками LSTM также могут страдать от «взрывных градиентов»?

У меня есть базовые знания о том, как работают RNN (и, в частности, с блоками LSTM). У меня есть графическое представление об архитектуре модуля LSTM, то есть ячейки и нескольких шлюзов, которые регулируют поток значений. Однако, по-видимому, я не до конца понял, как LSTM решает проблему...

13
В чем преимущество усеченного нормального распределения при инициализации весов в нейронной сети?

При инициализации весов соединений в нейронной сети с прямой связью важно инициализировать их случайным образом, чтобы избежать любых симметрий, которые алгоритм обучения не сможет нарушить. Рекомендация, которую я видел в разных местах (например, в учебнике MNIST от TensorFlow ), заключается в...