Алгоритм PCA может быть сформулирован в терминах корреляционной матрицы (предположим, что данные уже нормализованы, и мы рассматриваем только проекцию на первый ПК). Целевая функция может быть записана как:
Это хорошо, и мы используем множители Лагранжа, чтобы решить это, то есть переписать это как:
что эквивалентно
и, следовательно, ( см. здесь, в Mathworld ) кажется равным
Но это говорит о том, чтобы максимизировать расстояние между точкой и линией, и из того, что я прочитал здесь , это неверно - оно должно быть , а не . Где моя ошибка?
Или кто-то может показать мне связь между максимизацией дисперсии в проецируемом пространстве и минимизацией расстояния между точкой и линией?
pca
optimization
Cam.Davidson.Pilon
источник
источник
Ответы:
Пусть - центрированная матрица данных с наблюдениями в строках. Пусть - его ковариационная матрица. Пусть будет единичным вектором, задающим ось в пространстве переменных. Мы хотим, чтобы была первой главной осью.X n Σ=X⊤X/(n−1) w w
Согласно первому подходу первая главная ось максимизирует дисперсию проекции (дисперсия первой главной компоненты). Эта дисперсия определяется какXw
Согласно второму подходу первая главная ось минимизирует ошибку восстановления между и ее восстановлением , то есть сумму квадратов расстояний между исходными точками и их проекциями на . Квадрат ошибки восстановления задается какX Xww⊤ w
Обратите внимание на знак минус перед основным членом. Из-за этого минимизация ошибки восстановления сводится к максимизации , что является дисперсией. Таким образом, минимизация ошибки восстановления эквивалентна максимизации дисперсии; обе формулировки дают одинаковые .w⊤Σw w
источник