Лучшие методы извлечения факторов в факторном анализе

29

SPSS предлагает несколько методов извлечения факторов:

  1. Основные компоненты (что вовсе не факторный анализ)
  2. Невзвешенные наименьшие квадраты
  3. Обобщенные наименьшие квадраты
  4. Максимальная вероятность
  5. Основная ось
  6. Альфа-факторинг
  7. Имиджевый факторинг

Не обращая внимания на первый метод, который не является факторным анализом (но анализ основных компонентов, PCA), какой из этих методов является «лучшим»? Каковы относительные преимущества различных методов? И вообще, как бы я выбрал, какой из них использовать?

Дополнительный вопрос: следует ли получать аналогичные результаты из всех 6 методов?

Placidia
источник
Хм, мой первый импульс: разве нет записи в Википедии об этом? Если нет - конечно, должен существовать один ...
Готфрид Хелмс
4
Да, есть статья в Википедии. Он говорит использовать MLE, если данные нормальные, и PAF в противном случае. Это не говорит много о достоинствах или иначе других вариантов. В любом случае, я был бы рад узнать, что участники этого сайта думают об этой проблеме, основываясь на своем практическом опыте.
Плацидия

Ответы:

41

Чтобы сделать это коротким. Два последних метода каждый очень особенный и отличается от чисел 2-5. Все они называются анализом общего фактора и действительно рассматриваются как альтернативы. Большую часть времени они дают довольно похожие результаты. Они являются «общими», потому что они представляют классическую факторную модель , модель общих факторов + уникальных факторов. Именно эта модель обычно используется при анализе / валидации анкет.

Принципиальная ось (PAF) , также известный как главный фактор с итерациями, является самым старым и, возможно, еще довольно популярным методом. Это итеративное приложение PCA к матрице, где сообщества располагаются по диагонали вместо 1 с или дисперсий. Таким образом, каждая следующая итерация еще больше очищает сообщества, пока они не сойдутся. При этом метод, который стремится объяснить дисперсию, а не парные корреляции, в конечном итоге объясняет корреляции. Преимущество метода главной оси состоит в том, что он, подобно PCA, может анализировать не только корреляции, но также ковариации и другие1Меры SSCP (необработанные sscp, косинусы). Остальные три метода обрабатывают только корреляции [в SPSS; ковариации могут быть проанализированы в некоторых других реализациях]. Этот метод зависит от качества исходных оценок сообществ (и это его недостаток). Обычно в качестве начального значения используется квадрат множественной корреляции / ковариации, но вы можете предпочесть другие оценки (в том числе взятые из предыдущих исследований). Пожалуйста, прочитайте это для получения дополнительной информации. Если вы хотите увидеть пример вычислений факторинга по главной оси, прокомментированный и сравненный с вычислениями PCA, пожалуйста, посмотрите здесь .

2

34

Максимальное правдоподобие (ML)Предполагается, что данные (корреляции) получены из совокупности, имеющей многомерное нормальное распределение (другие методы не допускают такого предположения), и, следовательно, остатки коэффициентов корреляции должны быть нормально распределены около 0. Нагрузки итеративно оцениваются с помощью подхода ML в соответствии с вышеуказанным допущением. Обработка корреляций взвешивается по уникальности так же, как и в методе обобщенных наименьших квадратов. В то время как другие методы просто анализируют выборку как она есть, метод ML позволяет сделать некоторые выводы о населении, вместе с ним обычно рассчитывается ряд индексов соответствия и доверительные интервалы [к сожалению, в основном не в SPSS, хотя люди пишут макросы для SPSS, которые делают Это].

Все методы, которые я кратко описал, представляют собой линейную непрерывную скрытую модель. «Линейный» подразумевает, что ранговые корреляции, например, не должны анализироваться. «Непрерывный» подразумевает, что двоичные данные, например, не должны анализироваться (более подходящими являются IRT или FA, основанные на тетрахорических корреляциях).


1р

2U2

3Uр-1UU-1рU-1

4

введите описание изображения здесь

ttnphns
источник
Я думаю, следует добавить еще один аспект: используем ли мы методы для подбора факторного решения для заранее определенного числа факторов, или же число факторов должно быть получено из данных по какому-либо критерию (собственное значение, самый быстрый, ...) , Как я понимаю, ML имеет смысл только в том случае, если вы заранее укажете несколько факторов, и тогда будет найдено решение для фактора, и тогда будет возможен даже критерий хи-квадрат. PCA позволяет динамически отображать число факторов в свойствах данных, учитывая некоторый критерий, без критерия хи-квадрат. PAF может использоваться обоими способами.
Готфрид Хелмс
1
@ Готфрид, я бы не согласился с тем, как ты это выразил. Методы Всех FA требуют количества факторов м известно: вы подходите модель м вы укажете. Вы можете использовать различные критерии, которые могут помочь выбрать m , но все они не являются частью самих методов извлечения факторов. За исключением того хи-квадрата, который вычисляется вместе с методами GLS и ML. Кроме того, с помощью метода PA, если вы заранее знаете истинные сообщества (что очень редко), вы можете заставить их вести вас к лучшим m . Но в любом случае, вы, а не алгоритм извлечения, выбираете m .
ttnphns
Теперь, что мы должны использовать? Какой из них лучше?
MrYouMath
1
Лучшее - это то, что тебе нравится больше всего. Вы выбираете, а затем, при необходимости, объясняете, почему это вас устраивает. Как и везде
ttnphns
@ ttnphns, есть ли принцип when to use which?
Kittygirl