Анализ основных компонентов может использовать матричную декомпозицию, но это всего лишь инструмент для достижения этой цели.
Как бы вы нашли главные компоненты без использования матричной алгебры?
Какова целевая функция (цель) и каковы ограничения?
Ответы:
Не пытаясь дать полное представление о PCA, с точки зрения оптимизации, основной целевой функцией является коэффициент Рэлея . Матрица, которая фигурирует в частном, является (несколько кратной) выборочной ковариационной матрицей , где каждый представляет собой вектор функций и является матрицей , так что й строки является .
PCA стремится решить ряд задач по оптимизации. Первой в последовательности является проблема без ограничений
Так какуказанная выше безусловная проблема эквивалентна ограниченной задачеuTu=∥u∥22=∥u∥∥u∥
Вот где вступает матричная алгебра. Поскольку - симметричная положительная полуопределенная матрица (по построению!), Она имеет разложение по собственным значениям вида где - это ортогональная матрица (поэтому ) и - диагональная матрица с неотрицательными элементами такими что .S
Следовательно, . Поскольку ограничено в задаче одной единицей, то так же, как и , поскольку ортогонально.uTSu=uTQΛQTu=wTΛw=∑pi=1λiw2i u w ∥w∥2=∥QTu∥2=∥u∥2=1 Q
Но если мы хотим максимизировать количество при ограничениях, которые , то лучшее, что мы можем сделать, это set , то есть и для .∑pi=1λiw2i ∑pi=1w2i=1 w=e1 w1=1 wi=0 i>1
Теперь, возвращаясь к соответствующему , что мы и искали, мы получаем где обозначает первый столбец , то есть собственный вектор , соответствующий наибольшего собственного значения . Значение целевой функции также легко увидеть как .u
Остальные векторы главных компонентов затем находят путем решения последовательности (индексируемой ) задач оптимизации Итак, проблема та же, за исключением того, что мы добавили дополнительное ограничение, согласно которому решение должно быть ортогональным ко всем предыдущим решениям в последовательности. Это не трудно расширить аргумент выше индуктивно , чтобы показать , что решение - го проблема, на самом деле, , тем й собственный вектор .i
Решение PCA также часто выражается через разложение по сингулярным числам . Чтобы понять , почему, пусть . Тогда и так (строго говоря, с точностью до знака сальто) и .X X=UDVT nS=XTX=VD2VT V=Q Λ=D2/n
Главные компоненты находят, проецируя на векторы главных компонент. Из приведенной выше формулировки SVD легко увидеть, чтоX
Простота представления как главных компонентных векторов, так и самих основных компонентов в терминах SVD матрицы признаков является одной из причин, по которым SVD проявляется так заметно в некоторых вариантах лечения PCA.
источник
Представленное кардиналом решение фокусируется на выборочной ковариационной матрице. Другой отправной точкой является ошибка восстановления данных по q- мерной гиперплоскости. Если p- мерными точками данных являются задача состоит в том, чтобы решитьx1,…,xn
для матрицы с ортонормированными столбцами и . Это дает наилучшую ранговую q- реконструкцию, измеренную евклидовой нормой, а столбцы решения являются первыми векторами q главных компонент.p×q Vq λi∈Rq Vq
Для фиксированного решения для и (это регрессия):Vq μ λi
Для простоты обозначений предположим, что были центрированы в следующих вычислениях. Затем мы должны минимизироватьxi
более с ортонормированными столбцами. Обратите внимание, что является проекцией на q- мерное пространство столбцов. Следовательно, задача эквивалентна минимизации над рангом Q проекций . То есть нам нужно максимизировать по проекциям ранга q , где - выборочная ковариационная матрица. В настоящее времяVq P=VqVTq
Ошибка реконструкции предполагает ряд полезных обобщений, например разреженных главных компонентов или реконструкций по низкоразмерным многообразиям вместо гиперплоскостей. Подробности см. В разделе 14.5 «Элементы статистического обучения» .
источник
См. NIPALS ( wiki ) для одного алгоритма, который явно не использует матричную декомпозицию. Я полагаю, это то, что вы имеете в виду, когда говорите, что хотите избежать матричной алгебры, поскольку вы действительно не можете избежать матричной алгебры здесь :)
источник