Функциональный анализ главных компонентов (FPCA) - это то, на что я наткнулся и никогда не мог понять. О чем это все?
См. «Обзор функционального анализа главных компонентов», 2011 г. , и я цитирую:
PCA сталкивается с серьезными трудностями при анализе функциональных данных из-за «проклятия размерности» (Bellman 1961). «Проклятие размерности» происходит от разреженности данных в многомерном пространстве. Даже если геометрические свойства PCA остаются действительными, и даже если численные методы дают стабильные результаты, выборочная ковариационная матрица иногда является плохой оценкой ковариационной матрицы населения. Чтобы преодолеть эту трудность, FPCA предоставляет гораздо более информативный способ изучения ковариационной структуры выборки, чем PCA [...]
Я просто не понимаю Какой недостаток описывает эта статья? Разве PCA не должен быть конечным методом для обработки ситуаций, подобных «проклятию размерности»?
Я нахожу «функциональный PCA» ненужным заблуждением. Это вовсе не отдельная вещь, это стандартная PCA, применяемая к временным рядам.
FPCA относится к ситуациям, когда каждое из наблюдений является временным рядом (т. Е. «Функцией»), наблюдаемым в временных точках, так что вся матрица данных имеет размер. Обычно , например, можно выбрать временных рядов в временных точках каждый. Смысл анализа состоит в том, чтобы найти несколько «собственных временных рядов» (также длиной ), то есть собственных векторов ковариационной матрицы, которые описывали бы «типичную» форму наблюдаемого временного ряда.N T n × t T ≫ N 20 1000 T
Определенно можно применить стандартный PCA здесь. Видимо, в вашей цитате автор обеспокоен тем, что результирующие собственные временные ряды будут слишком шумными. Это действительно может случиться! Два очевидных способа справиться с этим: (а) сгладить результирующие собственные временные ряды после PCA, или (b) сгладить исходные временные ряды перед PCA.
Менее очевидный, более причудливый, но почти эквивалентный подход состоит в том, чтобы аппроксимировать каждый исходный временной ряд с помощью базисных функций, эффективно уменьшая размерность от до . Затем можно выполнить PCA и получить собственные временные ряды, аппроксимированные теми же базисными функциями. Это то, что обычно можно увидеть в уроках FPCA. Можно было бы использовать гладкие базисные функции (гауссианы или компоненты Фурье), так что, насколько я вижу, это по существу эквивалентно простому варианту (b), описанному выше.К T К
В учебниках по FPCA обычно идут долгие дискуссии о том, как обобщить PCA для функциональных пространств бесконечной размерности, но практическая значимость этого совершенно вне моего понимания , так как на практике функциональные данные всегда изначально дискретизируются.
Вот иллюстрация взята из Ramsay и Silverman «Функциональный анализ данных» учебник, который , как представляется, в окончательную монографии «функциональный анализ данных» , включая FPCA:
Можно видеть, что выполнение PCA на «дискретизированных данных» (точках) дает практически то же самое, что выполнение FPCA для соответствующих функций на основе Фурье (линий). Конечно, сначала можно выполнить дискретную PCA, а затем подобрать функцию в том же базисе Фурье; это дало бы более или менее тот же результат.
PS. В этом примере что является небольшим числом с . Возможно, то, что авторы считают «функциональной PCA» в этом случае, должно привести к «функции», то есть «плавной кривой», в отличие от 12 отдельных точек. Но это может быть тривиально достигнуто путем интерполяции, а затем сглаживания результирующих собственных временных рядов. Опять же, кажется, что «функциональный PCA» - это не отдельная вещь, это просто приложение PCA.t = 12 н > т
источник
Я работал в течение нескольких лет с Джимом Рамсей в FDA, поэтому я, возможно, могу добавить несколько пояснений к ответу @ amoeba. Я думаю, на практическом уровне, @amoeba в основном прав. По крайней мере, к такому выводу я наконец пришел после изучения FDA. Тем не менее, структура FDA дает интересное теоретическое понимание того, почему сглаживание собственных векторов - это больше, чем просто помеха. Оказывается, что оптимизация в функциональном пространстве с учетом внутреннего произведения, содержащего штраф за гладкость, дает конечномерное решение базисных сплайнов. FDA использует бесконечномерное функциональное пространство, но для анализа не требуется бесконечное количество измерений. Это как трюк с ядром в гауссовских процессах или SVM. На самом деле это очень похоже на трюк с ядром.
Первоначальная работа Рамсэя касалась ситуаций, когда основная история данных очевидна: функции более или менее линейны, или более или менее периодичны. Доминирующие собственные векторы стандартной PCA будут просто отражать общий уровень функций и линейного тренда (или синусоидальных функций), в основном говоря нам, что мы уже знаем. Интересные особенности лежат в невязках, которые теперь являются несколькими собственными векторами сверху списка. И поскольку каждый последующий собственный вектор должен быть ортогональным к предыдущим, эти конструкции все больше зависят от артефактов анализа и в меньшей степени от соответствующих характеристик данных. В факторном анализе ротация наклонных факторов направлена на решение этой проблемы. Идея Рамси состояла не в том, чтобы вращать компоненты, скорее, чтобы изменить определение ортогональности таким образом, чтобы лучше отражать потребности анализа. Это означало, что если бы вы имели дело с периодическими компонентами, вы бы сгладить на основеD3- D D2
Кто-то может возразить, что было бы проще удалить тренд с помощью OLS и изучить остатки этой операции. Я никогда не был убежден, что добавленная стоимость FDA стоила огромной сложности метода. Но с теоретической точки зрения стоит рассмотреть связанные с этим вопросы. Все, что мы делаем с данными, все портит. Остатки МНК коррелируют, даже когда исходные данные были независимыми. Сглаживание временного ряда вводит автокорреляции, которых не было в необработанном ряду. Идея FDA состояла в том, чтобы гарантировать, что остатки, которые мы получили от первоначального отклонения, были приспособлены к анализу интереса.
Вы должны помнить, что FDA возникла в начале 80-х, когда сплайн-функции активно изучались - подумайте о Грейс Вахба и ее команде. С тех пор появилось много подходов к многомерным данным, таких как SEM, анализ кривой роста, гауссовские процессы, дальнейшее развитие теории стохастических процессов и многое другое. Я не уверен, что FDA остается лучшим подходом к вопросам, которые он рассматривает. С другой стороны, когда я вижу заявления о том, что якобы является FDA, я часто задаюсь вопросом, действительно ли авторы понимают, что FDA пытается сделать.
источник
Я не уверен насчет FPCA, но следует помнить одну вещь: в чрезвычайно больших измерениях гораздо больше «пространства», и точки в пространстве начинают выглядеть равномерно распределенными (то есть все далеко от всего остального). В этот момент ковариационная матрица начнет выглядеть практически однородной и будет очень чувствительной к шуму. Поэтому это становится плохой оценкой «истинной» ковариации. Возможно, FPCA как-то обойдется, но я не уверен.
источник