Я начинаю свое путешествие в аспирантуру, и конечная цель, которую я поставил перед собой, - это разработка ANN, которые бы контролировали среду, в которой они работают, и динамически адаптировали свою архитектуру к имеющейся проблеме. Очевидным следствием является временность данных: если набор данных не является непрерывным и не изменяется со временем, зачем вообще его корректировать?
Большой вопрос: с недавним ростом глубокого обучения, это все еще актуальная тема? Есть ли у FFNN шанс найти себе нишу в проблемах дрейфа концепций?
Я боюсь перегружать тему слишком большим количеством вопросов, но этот не совсем не по теме: я знаю о RNN, но у меня ограниченный (ну, нет, или чисто теоретический) опыт работы с ними; Я считаю, что динамическая адаптация архитектуры должна быть актуальной темой в контексте RNN. Вопрос в том, получен ли уже ответ, и буду ли я изобретать велосипед?
PS Перекрестная публикация в MetaOptimize
источник
Ответы:
Нейронные сети с каскадной корреляцией корректируют свою структуру, добавляя скрытые узлы во время процесса обучения, так что это может послужить началом. Большинство других работ, которые я видел, которые автоматически регулируют количество слоев, количество скрытых узлов и т. Д. Нейронной сети, используют эволюционные алгоритмы.
К сожалению, эта работа находится за пределами моей области, поэтому я не могу рекомендовать какие-либо конкретные документы или ссылки, которые помогут вам начать. Я могу сказать вам, что я не видел ни одной работы, которая пыталась бы совместно оптимизировать структуру и параметры сети одновременно в сообществе глубокого обучения. Фактически, большинство архитектур глубокого обучения основано на жадном обучении одного слоя за раз, что делает даже онлайн-обучение глубоким нейронным сетям довольно нетронутой областью (работа Мартенса и др. По Hessian Free Optimization является заметным исключением).
источник
Еще одна причина для рассмотрения разработки новых подходов к конструктивным нейронным сетям (таких как упомянутый алгоритм CC @alto) лежит в приложениях вне статистики . В частности, в теоретической нейробиологии и когнитивной науке конструктивные нейронные сети часто используются из-за метафорического сходства с развитием и нейрогенезом. Для примера интенсивного использования каскадной корреляции для этого взгляните на публикации Томаса Р. Шульца . К сожалению, подход каскадной корреляции является биологически нереалистичным, и если у вас есть нейробиологический изгиб, стоит подумать о том, как новые NN с регулируемой архитектурой можно использовать в качестве лучших моделей развития и / или нейрогенеза.
источник