Кажется, что ряд статистических пакетов, которые я использую, объединяют эти два понятия. Тем не менее, мне интересно, есть ли разные предположения или «формальности» данных, которые должны быть верны, чтобы использовать одно над другим. Реальный пример был бы невероятно полезным.
pca
factor-analysis
Брэндон Бертельсен
источник
источник
Ответы:
Анализ основных компонентов включает в себя выделение линейных композитов наблюдаемых переменных.
Факторный анализ основан на формальной модели, предсказывающей наблюдаемые переменные из теоретических скрытых факторов.
В психологии эти два метода часто применяются при построении многомасштабных тестов, чтобы определить, какие элементы загружаются в какие масштабы. Как правило, они дают аналогичные существенные выводы (для обсуждения см. Comrey (1988) Фактор-аналитические методы масштабного развития в личности и клинической психологии). Это помогает объяснить, почему некоторые статистические пакеты связывают их вместе. Я также видел ситуации, когда «анализ главных компонентов» неправильно обозначался как «факторный анализ».
С точки зрения простого эмпирического правила , я бы посоветовал вам:
Запустите факторный анализ, если вы предполагаете или хотите проверить теоретическую модель скрытых факторов, вызывающих наблюдаемые переменные.
Запустите анализ основных компонентов Если вы хотите просто уменьшить ваши коррелированные наблюдаемые переменные до меньшего набора важных независимых составных переменных.
источник
Из моего ответа здесь:
За PCA следует ротация (например, varimax), все еще PCA?
Анализ основных компонентов (PCA) и анализ общего фактора (CFA) являются различными методами. Часто они дают схожие результаты, и PCA используется в качестве метода извлечения по умолчанию в процедурах анализа факторов SPSS. Это, несомненно, приводит к большой путанице по поводу различия между ними.
Суть в том, что это две разные модели, концептуально. В PCA компоненты представляют собой реальные ортогональные линейные комбинации, которые максимизируют общую дисперсию. В FA факторы представляют собой линейные комбинации, которые максимизируют общую часть дисперсии - лежащие в основе «скрытые конструкции». Вот почему ФА часто называют «анализом общего фактора». FA использует различные процедуры оптимизации, и результат, в отличие от PCA, зависит от используемой процедуры оптимизации и исходных точек для этих процедур. Просто нет единственного уникального решения.
В R функция factanal () предоставляет CFA максимальное извлечение правдоподобия. Таким образом, вы не должны ожидать, что он воспроизведет результат SPSS, основанный на извлечении PCA. Это просто не та же модель или логика. Я не уверен, что вы получите тот же результат, если вы используете извлечение максимального правдоподобия SPSS, так как они могут не использовать тот же алгоритм.
К лучшему или худшему в R, вы можете, однако, воспроизвести смешанный «факторный анализ», который SPSS предоставляет по умолчанию. Вот процесс в R. С помощью этого кода я могу воспроизвести результат «Факторного анализа» основного компонента SPSS, используя этот набор данных. (За исключением знака, который является неопределенным). Этот результат также может быть повернут с использованием любого из доступных методов вращения R.
источник
principal(attitude, 2, rotate="none")
чтоpsych
и в пакете, и что правило Кейзера (ev> 1) - не самый рекомендуемый способ проверки на размерность (он переоценивает количество факторов).factanal()
обеспечивает EFA не CFA. Кроме того, по моему опыту, извлечение максимального правдоподобия в SPSS должно давать тот же результат,factanal()
что и при отсутствии наклонного вращения.Вы правы в своем первом пункте, хотя в FA вы обычно работаете с обоими (уникальность и общность). Выбор между PCA и FA - давняя дискуссия среди психометристов. Я не совсем следую вашим указаниям. Вращение главных осей может применяться независимо от того, какой метод используется для построения скрытых факторов. Фактически, в большинстве случаев это вращение VARIMAX (ортогональное вращение с учетом некоррелированных факторов), которое используется по практическим соображениям (простейшая интерпретация, простейшие правила оценки или интерпретация показателей факторов и т. Д.), Хотя наклонное вращение (например, PROMAX ) возможно, лучше отражает реальность (скрытые конструкции часто коррелируют друг с другом), по крайней мере, в традиции FA, где вы предполагаете, что скрытая конструкция действительно лежит в основе наблюдаемых взаимосвязей между вашими переменными. Дело в том, что PCA с последующим вращением VARIMAX несколько искажает интерпретацию линейных комбинаций исходных переменных в традиции «анализа данных» (см. Работу Мишеля Тененхауса). С психометрической точки зрения предпочтительнее модели FA, поскольку они явно учитывают ошибки измерений, в то время как PCA не заботится об этом. Вкратце, используя PCA, вы выражаете каждый компонент (фактор) как линейную комбинацию переменных, тогда как в FA это переменные, которые выражаются как линейные комбинации факторов (включая компоненты общности и уникальности, как вы сказали). Дело в том, что PCA с последующим вращением VARIMAX несколько искажает интерпретацию линейных комбинаций исходных переменных в традиции «анализа данных» (см. Работу Мишеля Тененхауса). С психометрической точки зрения предпочтительнее модели FA, поскольку они явно учитывают ошибки измерений, в то время как PCA не заботится об этом. Вкратце, используя PCA, вы выражаете каждый компонент (фактор) как линейную комбинацию переменных, тогда как в FA это переменные, которые выражаются как линейные комбинации факторов (включая компоненты общности и уникальности, как вы сказали). Дело в том, что PCA с последующим вращением VARIMAX несколько искажает интерпретацию линейных комбинаций исходных переменных в традиции «анализа данных» (см. Работу Мишеля Тененхауса). С психометрической точки зрения предпочтительнее модели FA, поскольку они явно учитывают ошибки измерений, в то время как PCA не заботится об этом. Вкратце, используя PCA, вы выражаете каждый компонент (фактор) как линейную комбинацию переменных, тогда как в FA это переменные, которые выражаются как линейные комбинации факторов (включая общности и компоненты уникальности, как вы сказали). Модели FA должны быть предпочтительными, поскольку они явно учитывают ошибки измерений, в то время как PCA не заботится об этом. Вкратце, используя PCA, вы выражаете каждый компонент (фактор) как линейную комбинацию переменных, тогда как в FA это переменные, которые выражаются как линейные комбинации факторов (включая общности и компоненты уникальности, как вы сказали). Модели FA должны быть предпочтительными, поскольку они явно учитывают ошибки измерений, в то время как PCA не заботится об этом. Вкратце, используя PCA, вы выражаете каждый компонент (фактор) как линейную комбинацию переменных, тогда как в FA это переменные, которые выражаются как линейные комбинации факторов (включая компоненты общности и уникальности, как вы сказали).
Я рекомендую вам сначала прочитать следующие обсуждения на эту тему:
источник
PCA followed by VARIMAX rotation somewhat distorts the interpretation of the linear combinations of the original variables in the "data analysis" tradition
, Хл, не могли бы вы объяснить это? Это интересно.В Интернете есть множество предлагаемых определений. Вот один из онлайн-глоссария по статистическому обучению :
источник
Верхний ответ в этой теме предполагает, что PCA - это больше техника уменьшения размерности, тогда как FA - это больше техника скрытой переменной. Это в буквальном смысле правильно. Но многие ответы здесь и многие другие способы лечения представляют PCA и FA как два совершенно разных метода с разными, если не противоположными целями, методами и результатами. Я не согласен; Я полагаю, что когда PCA рассматривается как метод скрытой переменной, он довольно близок к FA, и их лучше рассматривать как очень похожие методы.
Я представил свой собственный отчет о сходствах и различиях между PCA и FA в следующей теме: Есть ли веская причина использовать PCA вместо EFA? Кроме того, может ли PCA заменить факторный анализ? Там я утверждаю, что по простым математическим причинам результаты PCA и FA могут быть весьма схожими, учитывая только то, что число переменных не очень мало (возможно, более десятка). Смотрите мой [длинный!] Ответ в связанной ветке для математических деталей и моделирования Монте-Карло. Гораздо более краткую версию моего аргумента см. Здесь: при каких условиях PCA и FA дают одинаковые результаты?
Обратите внимание, что между PCA и FA едва ли есть разница! Здесь и там есть небольшие отклонения, но общая картина почти идентична, и все нагрузки очень похожи и указывают в одном и том же направлении. Это именно то, что ожидалось от теории, и это не удивительно; Тем не менее, поучительно наблюдать.
PS. Более симпатичный набор PCA из того же набора данных см. В этом ответе @vqv .
PPS. В то время как расчеты PCA являются стандартными, расчеты FA могут потребовать комментариев. Факторные нагрузки вычислялись по алгоритму «итерированные главные факторы» до сходимости (9 итераций), причем сообщества были инициализированы с частичными корреляциями. Как только нагрузки сошлись, оценки были рассчитаны с использованием метода Бартлетта. Это дает стандартизированные оценки; Я увеличил их на соответствующие коэффициенты дисперсии (определяемые длинами нагрузки).
источник
Базовое, но довольно кропотливое объяснение PCA и факторного анализа с помощью диаграмм рассеяния, в логических шагах. (Я благодарю @amoeba, который в своем комментарии к этому вопросу побудил меня опубликовать ответ вместо ссылок на другие места. Так что это досуг, поздний ответ.)
PCA как суммирование переменных (извлечение признаков)
Надеюсь, у вас уже есть понимание PCA. Возродить сейчас.
Эти коэффициенты являются косинусами вращения (= направляющие косинусы, главные направления) и содержат так называемые собственные векторы, в то время как собственные значения ковариационной матрицы являются дисперсиями главных компонент. В PCA мы обычно отбрасываем слабые последние компоненты: таким образом, мы суммируем данные по нескольким первым извлеченным компонентам, с небольшой потерей информации.
С нашими построенными данными, значениями компонента P1 (оценки)
P1 = .73543*V1 + .67761*V2
и компонентом P2 мы отказываемся. Дисперсия P1 является1.75756
, то первым собственным значением матрицы ковариации, и поэтому P1 объясняет86.5%
в общей дисперсии , которая равна(1.07652+.95534) = (1.75756+.27430)
.PCA как переменное прогнозирование («скрытая» функция)
Теперь, что характерно для PCA, так это то, что если мы вычислим E1 и E2 для каждой точки в данных и построим эти координаты - т.е. создадим диаграмму рассеяния только ошибок, облако «данные об ошибках» будет совпадать с отброшенным компонентом P2. И это так: облако изображено на той же картинке, что и бежевое облако, и вы видите, что оно фактически формирует ось P2 (на рис.1 ) в виде листов с оценками компонентов P2.
Не удивительно, вы можете сказать. Это так очевидно: в PCA отброшенный младший компонент (-ы) - это то, что точно разлагается (-ются) в ошибках предсказания E, в модели, которая объясняет (восстанавливает) исходные переменные V скрытой характеристикой (-ами) P1. Ошибки E вместе составляют только пропущенные компоненты. Здесь факторный анализ начинает отличаться от СПС.
Идея общего ФА (скрытая особенность)
Формально модель прогнозирования явных переменных по извлеченным скрытым признакам (ам) в FA такая же, как и в PCA; [ Ур.3 ]:
где F - скрытый общий фактор, извлеченный из данных и заменяющий то, что было P1 в уравнении 2 . Различие в модели состоит в том, что в FA, в отличие от PCA, переменные ошибки (E1 и E2) должны быть некоррелированными друг с другом .
ОК, вернемся к теме. E1 и E2 некоррелированы в факторном анализе; таким образом, они должны образовывать облако ошибок, круглых или эллиптических, но не по диагонали. В то время как в PCA их облако образовало прямую линию, совпадающую с диагонально идущей P2. Обе идеи демонстрируются на рисунке:
Обратите внимание, что ошибки - это круглое (не вытянутое по диагонали) облако в FA. Фактор (скрытый) в ФА ориентирован несколько иначе, то есть он не является первым основным компонентом, который является «скрытым» в ППШ. На рисунке линия фактора немного странно коническая - станет ясно, почему, в конце концов.
В чем смысл этой разницы между PCA и FA? Переменные коррелировали, что видно по диагонально-эллиптической форме облака данных. P1 снял максимальную дисперсию, поэтому эллипс сориентирован на P1. Следовательно, P1 объяснил собой корреляцию; но это не объяснило существующее количество корреляции адекватно; он пытался объяснить различия в точках данных, а не корреляцию. Фактически, это переоценило корреляцию, результатом которой стало появление диагонального, коррелированного облака ошибок, которое компенсирует перерасчет. Один P1 не может объяснить силу корреляции / ковариации всесторонне. Фактор F можетсделай это один; и условие, когда оно становится способным делать это, именно там, где ошибки могут быть вынуждены быть некоррелированными. Поскольку облако ошибок является круглым, никакой корреляции - положительной или отрицательной - не осталось после того, как фактор был извлечен, следовательно, это фактор, который снял все это.
Как уменьшение размерности, PCA объясняет дисперсию, но объясняет корреляции неточно. FA объясняет корреляции, но не может учитывать (из-за общих факторов) так много различий в данных, как PCA. Факторы в ФА учитывают ту часть изменчивости, которая является чистой корреляционной частью, называемой общностью ; и поэтому факторы могут быть интерпретированы как реальные, но ненаблюдаемые силы / особенности / черты, которые скрывают «внутри» или «позади» входные переменные, чтобы привести их в соответствие. Потому что они хорошо объясняют корреляцию математически. Основные компоненты (несколько первых) объясняют это математически не так хорошо, и поэтому их можно назвать «скрытой чертой» (или такими) только в некоторой степени и ориентировочно .
Умножение нагрузок - это то, что объясняет (восстанавливает) корреляцию или корреляцию в форме ковариации - если анализ был основан на ковариационной матрице (как в нашем примере), а не на корреляционной матрице. Факторный анализ, который я сделал с данными, дал
a_1=.87352, a_2=.84528
, так что продуктa_1*a_2 = .73837
почти равен ковариации.73915
. С другой стороны, нагрузки PCA былиa1_1=.97497, a1_2=.89832
, поэтому сильноa1_1*a1_2 = .87584
переоценивают.73915
.Объяснив основное теоретическое различие между PCA и FA, давайте вернемся к нашим данным, чтобы проиллюстрировать идею.
FA: приблизительное решение (коэффициент факторов)
Ниже приведена диаграмма рассеяния, на которой показаны результаты анализа, который мы условно будем называть «субоптимальным факторным анализом», рис.3 .
См. Вылеты из рис.2 СПС. Бежевое облако ошибок не круглое, оно по диагонали эллиптическое, но, тем не менее, оно намного толще, чем тонкая диагональная линия, возникшая в PCA. Также обратите внимание, что соединители ошибок (показанные для некоторых точек) больше не параллельны (в PCA они по определению параллельны P2). Более того, если вы посмотрите, например, на точки «F» и «E», которые лежат зеркально симметрично относительно оси F фактора , вы неожиданно обнаружите, что их соответствующие коэффициенты имеют совершенно разные значения. Другими словами, оценки факторов - это не просто линейно преобразованные оценки основных компонентов: фактор F по-своему отличается от метода P1. И их оси не полностью совпадают, если показаны вместе на одном графике Рис.4 :
Кроме того, они немного по-другому ориентированы, F (в виде мозаики с оценками) короче, то есть учитывает меньшую дисперсию, чем P1. Как отмечалось ранее, фактор учитывает только изменчивость, которая отвечает за корреляцию V1 V2, то есть той части полной дисперсии, которая достаточна, чтобы привести переменные из первичной ковариации
0
к фактической ковариации.73915
.FA: оптимальное решение (истинный фактор)
Оптимальное факторное решение - когда ошибки круглые или недиагональное эллиптическое облако: E1 и E2 полностью некоррелированы . Факторный анализ на самом деле возвращает такое оптимальное решение. Я не показывал это на простом графике рассеяния, подобном приведенному выше. Почему я? - ведь это было бы самым интересным, в конце концов.
Причина в том, что было бы невозможно отобразить на диаграмме рассеяния достаточно адекватно, даже принимая трехмерный график. Это довольно интересный момент теоретически. Чтобы сделать E1 и E2 полностью некоррелированными, кажется, что все эти три переменные, F, E1, E2 должны лежать не в пространстве (плоскости), определяемом V1, V2; и три должны быть некоррелированы друг с другом . Я полагаю, что можно нарисовать такую диаграмму рассеяния в 5D (и, может быть, с некоторым трюком - в 4D), но мы живем в мире 3D, увы. Фактор F должен быть некоррелированным как с E1, так и с E2 (в то время как оба они также некоррелированы), поскольку предполагается, что F является единственным (чистым) и полным источником корреляции в наблюдаемых данных. Анализ фактора расщепляется общая дисперсия из
p
Входные переменные в двух некоррелированных (неперекрывающихся) части: коммунальность часть (m
-мерном, гдеm
общие факторы правило) и единственность часть (p
-мерном, где ошибки, называемых также уникальные факторы, взаимно некоррелированны).Так что извините за то, что вы не показали истинный фактор наших данных на графике рассеяния здесь. Это может быть вполне адекватно визуализировано с помощью векторов в «предметном пространстве», как здесь, без отображения точек данных.
Выше, в разделе «Идея общей FA (скрытая особенность)» я отобразил коэффициент (ось F) в виде клина, чтобы предупредить, что истинная ось фактора не лежит на плоскости V1 V2. Это означает, что - в отличие от главного компонента P1 - фактор F в качестве оси не является вращением оси V1 или V2 в их пространстве, а F в качестве переменной не является линейной комбинацией переменных V1 и V2. Поэтому F моделируется (извлекается из переменных V1 v2), как будто внешняя, независимая переменная, а не их производная. Уравнения , как Eq.1 , откуда начинается PCA, неприменимы для вычисления истинного (оптимальный) фактора в факторном анализе, в то время как формально изоморфные уравнения Eq.2 и Eq.3действительны для обоих анализов. То есть в PCA переменные генерируют компоненты, а компоненты обратно предсказывают переменные; в факторах ФА генерировать / прогнозировать переменные, а не обратно - модель общего фактора концептуально предполагает это , хотя технически факторы извлекаются из наблюдаемых переменных.
Не только истинный фактор не зависит от проявленного переменных истинного фактора значение является не определены однозначно . Другими словами, они просто неизвестны. Это все из-за того, что мы находимся в чрезмерном 5D аналитическом пространстве, а не в нашем домашнем 2D пространстве данных. Нам доступны только хорошие приближения (существует ряд методов ) к истинным значениям факторов, называемым показателями факторов . Факторные оценки лежат в плоскости V1 V2, как и оценки главных компонентов, они рассчитываются как линейные функции V1, V2, и это были оничто я построил в разделе «ФА: приблизительное решение (фактор оценки)». Оценка основных компонентов - это истинные значения компонентов; Факторные оценки являются лишь разумным приближением к неопределенным истинным значениям факторов.
FA: обзор процедуры
Таким образом, «факторное решение», отображаемое мной в разделе «FA: приблизительное решение (факторные оценки)», было основано фактически на оптимальных нагрузках, т.е. на реальных факторах. Но оценки не были оптимальными, судьбой. Оценки рассчитываются как линейная функция наблюдаемых переменных, как и оценки компонентов, поэтому их можно сравнить на диаграмме рассеяния, и я сделал это в дидактическом стремлении, чтобы показать постепенный переход от идеи PCA к идее FA.
Следует проявлять осторожность при построении графиков для тех же нагрузок фактора биплота с оценками факторов в «пространстве факторов», имейте в виду, что нагрузки относятся к истинным факторам, в то время как оценки относятся к суррогатным факторам (см. Мои комментарии к этому ответу в этой теме).
Вращение факторов (нагрузок) помогает интерпретировать скрытые особенности. Вращение нагрузок может быть выполнено и в PCA, если вы используете PCA как факторный анализ (то есть смотрите PCA как переменный прогноз). PCA имеет тенденцию сходиться в результатах с FA по мере роста числа переменных (см. Чрезвычайно обширную ветку о практических и концептуальных сходствах и различиях между этими двумя методами). Смотрите мой список различий между PCA и FA в конце этого ответа . Пошаговые вычисления PCA против FA на наборе данных радужной оболочки находятся здесь . За пределами этой ветки существует множество хороших ссылок на ответы других участников по этой теме; Извините, я использовал только несколько из них в текущем ответе.
Смотрите также полный список различий между PCA и FA здесь .
источник
Различия между факторным анализом и анализом основных компонентов:
• В факторном анализе есть структурированная модель и некоторые допущения. В этом отношении это статистический метод, который не применим к анализу главных компонентов, который является чисто математическим преобразованием.
• Целью анализа главных компонентов является объяснение дисперсии, в то время как факторный анализ объясняет ковариацию между переменными.
Одна из главных причин путаницы между ними связана с тем, что один из методов извлечения факторов в Факторном анализе называется «методом главных компонентов». Однако одно дело - использовать PCA, а другое - использовать метод главных компонентов в FA. Имена могут быть похожими, но есть существенные различия. Первый - это независимый аналитический метод, а второй - просто инструмент для извлечения факторов.
источник
Для меня (и я надеюсь, что это полезно) факторный анализ гораздо полезнее, чем PCA.
Недавно я имел удовольствие анализировать масштаб с помощью факторного анализа. Эта шкала (хотя она широко используется в промышленности) была разработана с использованием PCA, и, насколько мне известно, никогда не подвергался факторному анализу.
Когда я выполнил факторный анализ (главная ось), я обнаружил, что сообщества для трех элементов составляли менее 30%, что означает, что более 70% отклонений элементов не анализировалось. PCA просто преобразует данные в новую комбинацию и не заботится о сообществах. Я пришел к выводу, что шкала была не очень хорошей с психометрической точки зрения, и я подтвердил это другой выборкой.
По сути, если вы хотите прогнозировать, используя факторы, используйте PCA, а если вы хотите понять скрытые факторы, используйте Factor Analysis.
источник
Расширение ответа @ StatisticsDocConsulting: разница в загрузках между EFA и PCA нетривиальна с небольшим количеством переменных. Вот функция моделирования, чтобы продемонстрировать это в R:
Iterations
Sample.Size
Iterations
principal()
factanal()
Используя этот код, я смоделировал выборки из 3–100 переменных с 500 итерациями каждая для получения данных:
... для графика чувствительности средних нагрузок (по переменным и итерациям) к числу переменных:
источник
Можно думать о PCA как о подобной FA, в которой сообщества предполагаются равными 1 для всех переменных. На практике это означает, что элементы, которые будут иметь относительно низкие факторные нагрузки в FA из-за низкой общности, будут иметь более высокие нагрузки в PCA. Это нежелательная особенность, если основная цель анализа состоит в том, чтобы сократить длину предметов и очистить батарею от предметов с низкими или двусмысленными нагрузками или выявить понятия, которые не очень хорошо представлены в пуле предметов.
источник
Цитата из действительно хорошего учебника (Браун, 2006, с. 22, выделение добавлено).
PCA = анализ основных компонентов
EFA = анализ разведочных факторов
CFA = анализ подтверждающих факторов
Браун, TA (2006). Подтверждающий факторный анализ для прикладных исследований. Нью-Йорк: Гилфорд Пресс.
источник
В статье Tipping and Bischop обсуждается тесная связь между вероятностным PCA (PPCA) и факторным анализом. PPCA ближе к FA, чем классический PCA. Общая модель
Майкл Э. Типпинг, Кристофер М. Бишоп (1999). Вероятностный анализ главных компонентов , Журнал Королевского статистического общества, том 61, выпуск 3, страницы 611–622
источник
Ни один из этих ответов не идеален. У FA или PCA есть несколько вариантов. Мы должны четко указать, какие варианты сравниваются. Я бы сравнил анализ факторов максимального правдоподобия и PCA отеля. Первые предполагают, что скрытая переменная соответствует нормальному распределению, но PCA не имеет такого предположения. Это привело к различиям, таким как решение, вложение компонентов, уникальность решения, алгоритмы оптимизации.
источник
Там много хороших ответов на этот пост, но недавно я столкнулся с другим отличием.
Кластеризация - это одно приложение, в котором PCA и FA дают разные результаты. Когда в данных много функций, можно попытаться найти основные направления ПК и спроецировать данные на эти ПК, а затем приступить к кластеризации. Часто это мешает внутренним кластерам в данных - это хорошо доказанный результат. Исследователи предлагают продолжить методы кластеризации в подпространстве, которые ищут низкоразмерные скрытые факторы в модели.
Просто чтобы проиллюстрировать это различие, рассмотрим
Crabs
набор данных в R. В наборе данных Крабы есть 200 строк и 8 столбцов, описывающих 5 морфологических измерений на 50 крабах каждой из двух цветовых форм и обоих полов, видов - по сути, существует 4 (2x2) различных класса крабы.Кластеризация с использованием ПК1 и ПК2:
Кластеризация с использованием ПК2 и ПК3:
Как видно из приведенных выше графиков, ПК2 и ПК3 несут больше различающей информации, чем ПК1.
Если попытаться кластеризовать, используя скрытые факторы, используя Анализаторы фактора, мы увидим гораздо лучший результат по сравнению с использованием первых двух ПК.
источник