В посте блога Создание мощных моделей классификации изображений с использованием очень небольшого количества данных упоминаются узкие места. Каковы особенности узкого места? Они меняются в зависимости от используемой архитектуры? Являются ли они окончательным выходом сверточных слоев перед полностью связным слоем? Почему они так называются?
machine-learning
convolutional-neural-networks
terminology
definitions
Абхишек Бхатия
источник
источник
Ответы:
Это ясно написано в ссылке, которую вы дали «особенностям узкого места» из модели VGG16: последняя карта активации перед полностью подключенными слоями .
Конечно. Автор, скорее всего, использовал предварительно обученную модель (обучалась на больших данных и теперь используется только в качестве экстрактора возможностей)
Да.
Учитывая входной размер для VGG, карты характеристик размеров HxW становятся в два раза меньше после каждой операции максимального пула. HxW является наименьшим на последнем сверточном слое.
источник
Во-первых, нам нужно поговорить о трансферном обучении. Представьте, что вы натренировали нейронную сеть на основе набора изображений для обнаружения кошек, вы можете использовать часть пройденного вами обучения, чтобы работать с другим, обнаружив что-то еще. Это известно как трансферное обучение.
Чтобы выполнить обучение, вы удалите последний полностью связанный слой из модели и вставите туда свои слои. «Усеченный» вывод модели будет теми функциями, которые заполнят вашу «модель». Это узкие места.
VGG16 - это модель предварительной подготовки по каталогу ImageNet, которая имеет очень хорошую точность. В посте, которым вы поделились, эта модель используется в качестве основы для более точного обнаружения кошек и собак.
Особенности узкого места зависят от модели. В этом случае мы используем VGG16. Есть и другие предварительно обученные модели, такие как VGG19, ResNet-50.
Это как если бы вы вырезали модель и добавили свои собственные слои. Главным образом, выходной слой, чтобы решить, что вы хотите обнаружить, окончательный вывод.
источник