Я согласен, что это слишком широко, но вот ответ на 1 предложение для большинства из них. Те, которые я пропустил (из нижней части таблицы), очень современные и очень специализированные. Я не знаю много о них, так что, возможно, кто-то, кто может улучшить этот ответ.
- Персептрон: линейная или логистическая регрессия (и, следовательно, классификация).
- Feed Forward: обычно нелинейная регрессия или классификация с сигмоидальной активацией. По сути многослойный персептрон.
- Сеть радиального базиса: сеть прямой связи с функциями активации радиального базиса. Используется для классификации и некоторых видов видео / аудио фильтрации
- Deep Feed Forward: Feed Forward с более чем 1 скрытым слоем. Используется для изучения более сложных паттернов в классификации или регрессии, может быть, обучение с подкреплением.
- Рекуррентная нейронная сеть: сеть с прямой пересылкой, где некоторые узлы подключаются к прошлым слоям. Используется в обучении с подкреплением и для изучения шаблонов в последовательных данных, таких как текст или аудио.
- LSTM: рекуррентная нейронная сеть со специализированными управляющими нейронами (иногда называемыми воротами), которые позволяют сигналам запоминаться в течение более длительных периодов времени или выборочно забываться. Используется в любом приложении RNN, и часто способен изучать последовательности, которые имеют очень большое время повторения.
- ГРУ: Во многом как LSTM, другой вид закрытого RNN со специализированными контрольными нейронами.
- Авто Encoder: учится сжимать данные, а затем распаковывать их. После изучения этой модели ее можно разбить на две полезные части: сопоставление пространства ввода с пространством пространственных объектов низкого размера, которое может быть легче интерпретировать или понять; и отображение из небольшого размерного подпространства простых чисел в сложные шаблоны, которые можно использовать для генерации этих сложных шаблонов. Основа многих современных работ в области зрения, языка и обработки звука.
- VAE, DAE, SAE: Специализация автоматического кодировщика.
- Цепь Маркова: представление нейронной сети цепи Маркова: состояние кодируется в наборе активных нейронов, и таким образом вероятности перехода определяются весами. Используется для изучения вероятностей переходов и изучения неконтролируемых функций для других приложений.
- HN, BM, RBM, DBM: специализированные архитектуры, основанные на идее цепочки Маркова, используемые для автоматического изучения полезных функций для других приложений.
Глубокая сверточная сеть: как сеть с прямой связью, но каждый узел на самом деле является банком узлов, изучающих свертку от уровня до него. По сути, это позволяет ему изучать фильтры, детекторы контуров и другие шаблоны, представляющие интерес для обработки видео и аудио.
Глубокая деконволюционная сеть: противоположность сверточной сети в некотором смысле. Изучите сопоставление функций, представляющих края или другие высокоуровневые свойства невидимого изображения, обратно в пиксельное пространство. Генерация изображений из резюме.
DCIGN: по сути, авто-кодировщик, состоящий из DCN и DN, соединенных вместе. Используется для изучения генеративных моделей для сложных изображений, таких как лица.
Генеративная состязательная сеть: используется для изучения генеративных моделей для сложных изображений (или других типов данных), когда для DCIGN недостаточно обучающих данных. Одна модель учится генерировать данные из случайного шума, а другая учится классифицировать выходные данные первой сети как отличающиеся от любых доступных обучающих данных.