Для чего используются все виды нейронных сетей?

11

Я нашел следующую шпаргалку нейронной сети ( шпаргалки для ИИ, нейронных сетей, машинного обучения, глубокого обучения и больших данных ).

введите описание изображения здесь

Для чего используются все эти разные виды нейронных сетей? Например, какие нейронные сети можно использовать для регрессии или классификации, которые можно использовать для генерации последовательности и т. Д.? Мне просто нужен краткий обзор (1-2 строчки) их приложений.

datdinhquoc
источник

Ответы:

9

Я согласен, что это слишком широко, но вот ответ на 1 предложение для большинства из них. Те, которые я пропустил (из нижней части таблицы), очень современные и очень специализированные. Я не знаю много о них, так что, возможно, кто-то, кто может улучшить этот ответ.

  • Персептрон: линейная или логистическая регрессия (и, следовательно, классификация).
  • Feed Forward: обычно нелинейная регрессия или классификация с сигмоидальной активацией. По сути многослойный персептрон.
  • Сеть радиального базиса: сеть прямой связи с функциями активации радиального базиса. Используется для классификации и некоторых видов видео / аудио фильтрации
  • Deep Feed Forward: Feed Forward с более чем 1 скрытым слоем. Используется для изучения более сложных паттернов в классификации или регрессии, может быть, обучение с подкреплением.

  • Рекуррентная нейронная сеть: сеть с прямой пересылкой, где некоторые узлы подключаются к прошлым слоям. Используется в обучении с подкреплением и для изучения шаблонов в последовательных данных, таких как текст или аудио.
  • LSTM: рекуррентная нейронная сеть со специализированными управляющими нейронами (иногда называемыми воротами), которые позволяют сигналам запоминаться в течение более длительных периодов времени или выборочно забываться. Используется в любом приложении RNN, и часто способен изучать последовательности, которые имеют очень большое время повторения.
  • ГРУ: Во многом как LSTM, другой вид закрытого RNN со специализированными контрольными нейронами.

  • Авто Encoder: учится сжимать данные, а затем распаковывать их. После изучения этой модели ее можно разбить на две полезные части: сопоставление пространства ввода с пространством пространственных объектов низкого размера, которое может быть легче интерпретировать или понять; и отображение из небольшого размерного подпространства простых чисел в сложные шаблоны, которые можно использовать для генерации этих сложных шаблонов. Основа многих современных работ в области зрения, языка и обработки звука.
  • VAE, DAE, SAE: Специализация автоматического кодировщика.

  • Цепь Маркова: представление нейронной сети цепи Маркова: состояние кодируется в наборе активных нейронов, и таким образом вероятности перехода определяются весами. Используется для изучения вероятностей переходов и изучения неконтролируемых функций для других приложений.
  • HN, BM, RBM, DBM: специализированные архитектуры, основанные на идее цепочки Маркова, используемые для автоматического изучения полезных функций для других приложений.

  • Глубокая сверточная сеть: как сеть с прямой связью, но каждый узел на самом деле является банком узлов, изучающих свертку от уровня до него. По сути, это позволяет ему изучать фильтры, детекторы контуров и другие шаблоны, представляющие интерес для обработки видео и аудио.

  • Глубокая деконволюционная сеть: противоположность сверточной сети в некотором смысле. Изучите сопоставление функций, представляющих края или другие высокоуровневые свойства невидимого изображения, обратно в пиксельное пространство. Генерация изображений из резюме.

  • DCIGN: по сути, авто-кодировщик, состоящий из DCN и DN, соединенных вместе. Используется для изучения генеративных моделей для сложных изображений, таких как лица.

  • Генеративная состязательная сеть: используется для изучения генеративных моделей для сложных изображений (или других типов данных), когда для DCIGN недостаточно обучающих данных. Одна модель учится генерировать данные из случайного шума, а другая учится классифицировать выходные данные первой сети как отличающиеся от любых доступных обучающих данных.

Джон Дусетт
источник