Автоэнкодеры - это нейронные сети, которые изучают сжатое представление входных данных, чтобы впоследствии восстановить его, чтобы их можно было использовать для уменьшения размерности. Они состоят из кодера и декодера (которые могут быть отдельными нейронными сетями). Уменьшение размерности может быть полезным для решения или ослабления проблем, связанных с проклятием размерности, когда данные становятся редкими и становится труднее получить «статистическую значимость». Таким образом, автоэнкодеры (и алгоритмы, такие как PCA) могут быть использованы для борьбы с проклятием размерности.
Почему мы заботимся об уменьшении размерности, особенно с помощью автоэнкодеров? Почему мы не можем просто использовать PCA, если целью является уменьшение размерности?
Зачем нам нужно распаковывать скрытое представление ввода, если мы просто хотим уменьшить размерность, или зачем нужна часть декодера в автоэнкодере? Каковы варианты использования? В общем, зачем нам сжимать вход, чтобы потом его распаковать? Разве не лучше было бы просто использовать оригинальный ввод (для начала)?
Ответы:
Важно подумать о том, какие шаблоны в данных представлены.
Предположим, что у вас есть набор данных изображений в градациях серого, так что каждое изображение имеет одинаковую интенсивность. Как человеческий мозг, вы понимаете, что каждый элемент в этом наборе данных может быть описан с помощью одного числового параметра, который является этим значением интенсивности. Это то, для чего PCA будет работать нормально, потому что каждое из измерений (мы можем думать о каждом пикселе как о другом измерении) идеально линейно коррелируется.
Предположим вместо этого, что у вас есть набор данных черно-белых растровых изображений 128x128px с центрированными кругами. Как человеческий мозг, вы быстро поймете, что каждый элемент в этом наборе данных может быть полностью описан одним числовым параметром, который является радиусом круга. Это очень впечатляющий уровень сокращения по сравнению с 16384 двоичными измерениями, и, что более важно, это семантически значимое свойство данных. Тем не менее, PCA, вероятно, не сможет найти этот шаблон.
Ваш вопрос был «Почему мы не можем просто использовать PCA, если целью является уменьшение размерности?» Ответ прост: PCA - это самый простой инструмент для уменьшения размерности, но он может упустить множество взаимосвязей, которые могут найти более мощные методы, такие как автоэнкодеры.
источник
Случай использования автоэнкодеров (в частности, декодера или генеративной модели автоэнкодера) заключается в подавлении шума на входе. Автоинкодеры этого типа, называемые шумоподавляющими автоэнкодерами , принимают частично поврежденный вход, и они пытаются восстановить соответствующий не поврежденный вход. Есть несколько приложений этой модели. Например, если у вас было поврежденное изображение, вы могли бы потенциально восстановить его, используя шумоподавляющий автоэнкодер.
Автоэнкодеры и PCA связаны:
Для получения дополнительной информации взгляните на статью Elad Plaut «От основных подпространств к основным компонентам с линейными автоэнкодерами» (2018). Смотрите также этот ответ , который также объясняет связь между PCA и автоэнкодерами.
источник
PCA - это линейный метод, который создает преобразование, способное изменять проекции векторов (изменение оси).
Поскольку PCA ищет направление максимальной дисперсии, оно обычно имеет высокую дискриминацию, НО это не гарантирует, что направление наибольшей дисперсии является направлением большей дискриминации.
LDA - это линейный метод, который создает преобразование, способное найти направление, наиболее подходящее для определения, принадлежит ли вектор к классу A или B.
PCA и LDA имеют нелинейные версии ядра, которые могут преодолеть их линейные ограничения.
Автоэнкодеры могут выполнять уменьшение размерности с другими типами функции потерь, могут быть нелинейными и могут работать лучше, чем PCA и LDA во многих случаях.
Вероятно, нет лучшего алгоритма машинного обучения, чтобы что-либо делать, иногда Deep Learning и Neural Nets излишни для простых задач, и PCA и LDA могут быть опробованы до других, более сложных, размерных сокращений.
источник
источник