Можно ли использовать значения масштабирования в линейном дискриминантном анализе (LDA) для построения объясняющих переменных на линейных дискриминантах?

11

Используя набор значений, полученных в результате анализа главных компонентов, можно изучить объясняющие переменные, составляющие каждый основной компонент. Возможно ли это и с помощью линейного дискриминантного анализа?

Приведенные примеры используют данные «Данные Ириса Эдгара Андерсона» ( http://en.wikipedia.org/wiki/Iris_flower_data_set ). Вот данные радужной оболочки :

  id  SLength   SWidth  PLength   PWidth species 

   1      5.1      3.5      1.4       .2 setosa 
   2      4.9      3.0      1.4       .2 setosa 
   3      4.7      3.2      1.3       .2 setosa 
   4      4.6      3.1      1.5       .2 setosa 
   5      5.0      3.6      1.4       .2 setosa 
   6      5.4      3.9      1.7       .4 setosa 
   7      4.6      3.4      1.4       .3 setosa 
   8      5.0      3.4      1.5       .2 setosa 
   9      4.4      2.9      1.4       .2 setosa 
  10      4.9      3.1      1.5       .1 setosa 
  11      5.4      3.7      1.5       .2 setosa 
  12      4.8      3.4      1.6       .2 setosa 
  13      4.8      3.0      1.4       .1 setosa 
  14      4.3      3.0      1.1       .1 setosa 
  15      5.8      4.0      1.2       .2 setosa 
  16      5.7      4.4      1.5       .4 setosa 
  17      5.4      3.9      1.3       .4 setosa 
  18      5.1      3.5      1.4       .3 setosa 
  19      5.7      3.8      1.7       .3 setosa 
  20      5.1      3.8      1.5       .3 setosa 
  21      5.4      3.4      1.7       .2 setosa 
  22      5.1      3.7      1.5       .4 setosa 
  23      4.6      3.6      1.0       .2 setosa 
  24      5.1      3.3      1.7       .5 setosa 
  25      4.8      3.4      1.9       .2 setosa 
  26      5.0      3.0      1.6       .2 setosa 
  27      5.0      3.4      1.6       .4 setosa 
  28      5.2      3.5      1.5       .2 setosa 
  29      5.2      3.4      1.4       .2 setosa 
  30      4.7      3.2      1.6       .2 setosa 
  31      4.8      3.1      1.6       .2 setosa 
  32      5.4      3.4      1.5       .4 setosa 
  33      5.2      4.1      1.5       .1 setosa 
  34      5.5      4.2      1.4       .2 setosa 
  35      4.9      3.1      1.5       .2 setosa 
  36      5.0      3.2      1.2       .2 setosa 
  37      5.5      3.5      1.3       .2 setosa 
  38      4.9      3.6      1.4       .1 setosa 
  39      4.4      3.0      1.3       .2 setosa 
  40      5.1      3.4      1.5       .2 setosa 
  41      5.0      3.5      1.3       .3 setosa 
  42      4.5      2.3      1.3       .3 setosa 
  43      4.4      3.2      1.3       .2 setosa 
  44      5.0      3.5      1.6       .6 setosa 
  45      5.1      3.8      1.9       .4 setosa 
  46      4.8      3.0      1.4       .3 setosa 
  47      5.1      3.8      1.6       .2 setosa 
  48      4.6      3.2      1.4       .2 setosa 
  49      5.3      3.7      1.5       .2 setosa 
  50      5.0      3.3      1.4       .2 setosa 
  51      7.0      3.2      4.7      1.4 versicolor 
  52      6.4      3.2      4.5      1.5 versicolor 
  53      6.9      3.1      4.9      1.5 versicolor 
  54      5.5      2.3      4.0      1.3 versicolor 
  55      6.5      2.8      4.6      1.5 versicolor 
  56      5.7      2.8      4.5      1.3 versicolor 
  57      6.3      3.3      4.7      1.6 versicolor 
  58      4.9      2.4      3.3      1.0 versicolor 
  59      6.6      2.9      4.6      1.3 versicolor 
  60      5.2      2.7      3.9      1.4 versicolor 
  61      5.0      2.0      3.5      1.0 versicolor 
  62      5.9      3.0      4.2      1.5 versicolor 
  63      6.0      2.2      4.0      1.0 versicolor 
  64      6.1      2.9      4.7      1.4 versicolor 
  65      5.6      2.9      3.6      1.3 versicolor 
  66      6.7      3.1      4.4      1.4 versicolor 
  67      5.6      3.0      4.5      1.5 versicolor 
  68      5.8      2.7      4.1      1.0 versicolor 
  69      6.2      2.2      4.5      1.5 versicolor 
  70      5.6      2.5      3.9      1.1 versicolor 
  71      5.9      3.2      4.8      1.8 versicolor 
  72      6.1      2.8      4.0      1.3 versicolor 
  73      6.3      2.5      4.9      1.5 versicolor 
  74      6.1      2.8      4.7      1.2 versicolor 
  75      6.4      2.9      4.3      1.3 versicolor 
  76      6.6      3.0      4.4      1.4 versicolor 
  77      6.8      2.8      4.8      1.4 versicolor 
  78      6.7      3.0      5.0      1.7 versicolor 
  79      6.0      2.9      4.5      1.5 versicolor 
  80      5.7      2.6      3.5      1.0 versicolor 
  81      5.5      2.4      3.8      1.1 versicolor 
  82      5.5      2.4      3.7      1.0 versicolor 
  83      5.8      2.7      3.9      1.2 versicolor 
  84      6.0      2.7      5.1      1.6 versicolor 
  85      5.4      3.0      4.5      1.5 versicolor 
  86      6.0      3.4      4.5      1.6 versicolor 
  87      6.7      3.1      4.7      1.5 versicolor 
  88      6.3      2.3      4.4      1.3 versicolor 
  89      5.6      3.0      4.1      1.3 versicolor 
  90      5.5      2.5      4.0      1.3 versicolor 
  91      5.5      2.6      4.4      1.2 versicolor 
  92      6.1      3.0      4.6      1.4 versicolor 
  93      5.8      2.6      4.0      1.2 versicolor 
  94      5.0      2.3      3.3      1.0 versicolor 
  95      5.6      2.7      4.2      1.3 versicolor 
  96      5.7      3.0      4.2      1.2 versicolor 
  97      5.7      2.9      4.2      1.3 versicolor 
  98      6.2      2.9      4.3      1.3 versicolor 
  99      5.1      2.5      3.0      1.1 versicolor 
 100      5.7      2.8      4.1      1.3 versicolor 
 101      6.3      3.3      6.0      2.5 virginica 
 102      5.8      2.7      5.1      1.9 virginica 
 103      7.1      3.0      5.9      2.1 virginica 
 104      6.3      2.9      5.6      1.8 virginica 
 105      6.5      3.0      5.8      2.2 virginica 
 106      7.6      3.0      6.6      2.1 virginica 
 107      4.9      2.5      4.5      1.7 virginica 
 108      7.3      2.9      6.3      1.8 virginica 
 109      6.7      2.5      5.8      1.8 virginica 
 110      7.2      3.6      6.1      2.5 virginica 
 111      6.5      3.2      5.1      2.0 virginica 
 112      6.4      2.7      5.3      1.9 virginica 
 113      6.8      3.0      5.5      2.1 virginica 
 114      5.7      2.5      5.0      2.0 virginica 
 115      5.8      2.8      5.1      2.4 virginica 
 116      6.4      3.2      5.3      2.3 virginica 
 117      6.5      3.0      5.5      1.8 virginica 
 118      7.7      3.8      6.7      2.2 virginica 
 119      7.7      2.6      6.9      2.3 virginica 
 120      6.0      2.2      5.0      1.5 virginica 
 121      6.9      3.2      5.7      2.3 virginica 
 122      5.6      2.8      4.9      2.0 virginica 
 123      7.7      2.8      6.7      2.0 virginica 
 124      6.3      2.7      4.9      1.8 virginica 
 125      6.7      3.3      5.7      2.1 virginica 
 126      7.2      3.2      6.0      1.8 virginica 
 127      6.2      2.8      4.8      1.8 virginica 
 128      6.1      3.0      4.9      1.8 virginica 
 129      6.4      2.8      5.6      2.1 virginica 
 130      7.2      3.0      5.8      1.6 virginica 
 131      7.4      2.8      6.1      1.9 virginica 
 132      7.9      3.8      6.4      2.0 virginica 
 133      6.4      2.8      5.6      2.2 virginica 
 134      6.3      2.8      5.1      1.5 virginica 
 135      6.1      2.6      5.6      1.4 virginica 
 136      7.7      3.0      6.1      2.3 virginica 
 137      6.3      3.4      5.6      2.4 virginica 
 138      6.4      3.1      5.5      1.8 virginica 
 139      6.0      3.0      4.8      1.8 virginica 
 140      6.9      3.1      5.4      2.1 virginica 
 141      6.7      3.1      5.6      2.4 virginica 
 142      6.9      3.1      5.1      2.3 virginica 
 143      5.8      2.7      5.1      1.9 virginica 
 144      6.8      3.2      5.9      2.3 virginica 
 145      6.7      3.3      5.7      2.5 virginica 
 146      6.7      3.0      5.2      2.3 virginica 
 147      6.3      2.5      5.0      1.9 virginica 
 148      6.5      3.0      5.2      2.0 virginica 
 149      6.2      3.4      5.4      2.3 virginica 
 150      5.9      3.0      5.1      1.8 virginica

Пример биплота PCA с использованием набора данных радужной оболочки в R (код ниже):

введите описание изображения здесь

Эта цифра указывает на то, что длина лепестка и ширина лепестка важны при определении показателя PC1 и при различении групп видов. Сетоза имеет меньшие лепестки и более широкие чашелистики.

По-видимому, аналогичные выводы можно сделать из построения результатов линейного дискриминантного анализа, хотя я не уверен, что представляет график LDA, поэтому возникает вопрос. Ось - это два первых линейных дискриминанта (LD1 99% и LD2 1% трассы). Координаты красных векторов являются «коэффициентами линейных дискриминантов», также описанными как «масштабирование» (lda.fit $ scaling: матрица, которая преобразует наблюдения в дискриминантные функции, нормализованные так, чтобы внутри групп ковариационная матрица была сферической). «Масштабирование» рассчитывается как diag(1/f1, , p)и f1 is sqrt(diag(var(x - group.means[g, ]))). Данные могут быть спроецированы на линейные дискриминанты (используя предикат.lda) (код ниже, как показано на https://stackoverflow.com/a/17240647/742447). Данные и переменные предиктора строятся вместе так, чтобы определить, какие виды определяются увеличением числа переменных предиктора (как это делается для обычных болванок PCA и вышеупомянутого биплота PCA) .:

Пример биплота LDA с использованием набора данных радужной оболочки в R

На этом графике ширина Sepal, ширина лепестка и длина лепестка вносят вклад в уровень, аналогичный LD1. Как и ожидалось, сетоза выглядит как меньшие лепестки и более широкие чашелистики.

Не существует встроенного способа для построения таких болтов от LDA в R и несколько обсуждений этого онлайн, что заставляет меня опасаться такого подхода.

Предоставляет ли этот график LDA (см. Код ниже) статистически достоверную интерпретацию оценок масштабирования переменных предикторов?

Код для PCA:

require(grid)

  iris.pca <- prcomp(iris[,-5])
  PC <- iris.pca
  x="PC1"
  y="PC2"
  PCdata <- data.frame(obsnames=iris[,5], PC$x)

  datapc <- data.frame(varnames=rownames(PC$rotation), PC$rotation)
  mult <- min(
    (max(PCdata[,y]) - min(PCdata[,y])/(max(datapc[,y])-min(datapc[,y]))),
    (max(PCdata[,x]) - min(PCdata[,x])/(max(datapc[,x])-min(datapc[,x])))
  )
  datapc <- transform(datapc,
                      v1 = 1.6 * mult * (get(x)),
                      v2 = 1.6 * mult * (get(y))
  )

  datapc$length <- with(datapc, sqrt(v1^2+v2^2))
  datapc <- datapc[order(-datapc$length),]

  p <- qplot(data=data.frame(iris.pca$x),
             main="PCA",
             x=PC1,
             y=PC2,
             shape=iris$Species)
  #p <- p + stat_ellipse(aes(group=iris$Species))
  p <- p + geom_hline(aes(0), size=.2) + geom_vline(aes(0), size=.2)
  p <- p + geom_text(data=datapc, 
                     aes(x=v1, y=v2,
                         label=varnames,
                         shape=NULL,
                         linetype=NULL,
                         alpha=length), 
                     size = 3, vjust=0.5,
                     hjust=0, color="red")
  p <- p + geom_segment(data=datapc, 
                        aes(x=0, y=0, xend=v1,
                            yend=v2, shape=NULL, 
                            linetype=NULL,
                            alpha=length),
                        arrow=arrow(length=unit(0.2,"cm")),
                        alpha=0.5, color="red")
  p <- p + coord_flip()


  print(p)

Код для LDA

#Perform LDA analysis
iris.lda <- lda(as.factor(Species)~.,
                 data=iris)

#Project data on linear discriminants
iris.lda.values <- predict(iris.lda, iris[,-5])

#Extract scaling for each predictor and
data.lda <- data.frame(varnames=rownames(coef(iris.lda)), coef(iris.lda))

#coef(iris.lda) is equivalent to iris.lda$scaling

data.lda$length <- with(data.lda, sqrt(LD1^2+LD2^2))
scale.para <- 0.75

#Plot the results
p <- qplot(data=data.frame(iris.lda.values$x),
           main="LDA",
           x=LD1,
           y=LD2,
           shape=iris$Species)#+stat_ellipse()
p <- p + geom_hline(aes(0), size=.2) + geom_vline(aes(0), size=.2)
p <- p + theme(legend.position="none")
p <- p + geom_text(data=data.lda,
                   aes(x=LD1*scale.para, y=LD2*scale.para,
                       label=varnames, 
                       shape=NULL, linetype=NULL,
                       alpha=length),
                   size = 3, vjust=0.5,
                   hjust=0, color="red")
p <- p + geom_segment(data=data.lda,
                      aes(x=0, y=0,
                          xend=LD1*scale.para, yend=LD2*scale.para,
                          shape=NULL, linetype=NULL,
                          alpha=length),
                      arrow=arrow(length=unit(0.2,"cm")),
                      color="red")
p <- p + coord_flip()

print(p)

Результаты LDA следующие

lda(as.factor(Species) ~ ., data = iris)

Prior probabilities of groups:
    setosa versicolor  virginica 
 0.3333333  0.3333333  0.3333333 

Group means:
           Sepal.Length Sepal.Width Petal.Length Petal.Width
setosa            5.006       3.428        1.462       0.246
versicolor        5.936       2.770        4.260       1.326
virginica         6.588       2.974        5.552       2.026

Coefficients of linear discriminants:
                    LD1         LD2
Sepal.Length  0.8293776  0.02410215
Sepal.Width   1.5344731  2.16452123
Petal.Length -2.2012117 -0.93192121
Petal.Width  -2.8104603  2.83918785

Proportion of trace:
   LD1    LD2 
0.9912 0.0088
Этьен Лоу-Декари
источник
Я не могу следовать вашему коду (я не пользователь R, и я предпочел бы видеть фактические значения данных и результатов, а не необъяснимые изображения и необъяснимый код), извините. Что строят ваши сюжеты? Каковы координаты красных векторов - регрессионных весов латентных или переменных? Для чего вы построили данные? Что такое discriminant predictor variable scaling scores? - термин кажется мне не обычным и странным.
ttnphns
@ttnphns: спасибо за предложение улучшений вопроса, которые теперь отражены в вопросе.
Этьен Лоу-Декари
Я до сих пор не знаю, что это такое predictor variable scaling scores. Может быть, "дискриминантные оценки"? В любом случае, я добавил ответ, который может вас заинтересовать.
ttnphns

Ответы:

7

Анализ основных компонентов и результаты линейного дискриминантного анализа ; данные радужной оболочки .

Я не буду рисовать биплоты, потому что они могут быть нарисованы с различной нормализацией и поэтому могут выглядеть по-разному. Поскольку я не Rпользователь, мне сложно отследить, как вы создали свои сюжеты, чтобы повторить их. Вместо этого я сделаю PCA и LDA и покажу результаты, аналогично этому (вы можете прочитать). Оба анализа сделаны в SPSS.

Основные компоненты данных радужной оболочки :

The analysis will be based on covariances (not correlations) between the 4 variables.

Eigenvalues (component variances) and the proportion of overall variance explained
PC1   4.228241706    .924618723 
PC2    .242670748    .053066483 
PC3    .078209500    .017102610 
PC4    .023835093    .005212184 
# @Etienne's comment: 
# Eigenvalues are obtained in R by
# (princomp(iris[,-5])$sdev)^2 or (prcomp(iris[,-5])$sdev)^2.
# Proportion of variance explained is obtained in R by
# summary(princomp(iris[,-5])) or summary(prcomp(iris[,-5]))

Eigenvectors (cosines of rotation of variables into components)
              PC1           PC2           PC3           PC4
SLength   .3613865918   .6565887713  -.5820298513   .3154871929 
SWidth   -.0845225141   .7301614348   .5979108301  -.3197231037 
PLength   .8566706060  -.1733726628   .0762360758  -.4798389870 
PWidth    .3582891972  -.0754810199   .5458314320   .7536574253    
# @Etienne's comment: 
# This is obtained in R by
# prcomp(iris[,-5])$rotation or princomp(iris[,-5])$loadings

Loadings (eigenvectors normalized to respective eigenvalues;
loadings are the covariances between variables and standardized components)
              PC1           PC2           PC3           PC4
SLength    .743108002    .323446284   -.162770244    .048706863 
SWidth    -.173801015    .359689372    .167211512   -.049360829 
PLength   1.761545107   -.085406187    .021320152   -.074080509 
PWidth     .736738926   -.037183175    .152647008    .116354292    
# @Etienne's comment: 
# Loadings can be obtained in R with
# t(t(princomp(iris[,-5])$loadings) * princomp(iris[,-5])$sdev) or
# t(t(prcomp(iris[,-5])$rotation) * prcomp(iris[,-5])$sdev)

Standardized (rescaled) loadings
(loadings divided by st. deviations of the respective variables)
              PC1           PC2           PC3           PC4
SLength    .897401762     .390604412   -.196566721    .058820016
SWidth    -.398748472     .825228709    .383630296   -.113247642
PLength    .997873942    -.048380599    .012077365   -.041964868
PWidth     .966547516   -.048781602    .200261695    .152648309  

Raw component scores (Centered 4-variable data multiplied by eigenvectors)
     PC1           PC2           PC3           PC4
-2.684125626    .319397247   -.027914828    .002262437 
-2.714141687   -.177001225   -.210464272    .099026550 
-2.888990569   -.144949426    .017900256    .019968390 
-2.745342856   -.318298979    .031559374   -.075575817 
-2.728716537    .326754513    .090079241   -.061258593 
-2.280859633    .741330449    .168677658   -.024200858 
-2.820537751   -.089461385    .257892158   -.048143106 
-2.626144973    .163384960   -.021879318   -.045297871 
-2.886382732   -.578311754    .020759570   -.026744736 
-2.672755798   -.113774246   -.197632725   -.056295401 
... etc.
# @Etienne's comment: 
# This is obtained in R with
# prcomp(iris[,-5])$x or princomp(iris[,-5])$scores.
# Can also be eigenvector normalized for plotting

Standardized (to unit variances) component scores, when multiplied
by loadings return original centered variables.

Важно подчеркнуть, что именно нагрузки, а не собственные векторы, с помощью которых мы обычно интерпретируем основные компоненты (или факторы факторного анализа) - если нам нужно интерпретировать. Нагрузки - это регрессионные коэффициенты моделирования переменных по стандартизированным компонентам . В то же время, поскольку компоненты не коррелируют, они являются ковариациями между такими компонентами и переменными. Стандартизированные (масштабированные) нагрузки, такие как корреляции, не могут превышать 1 и более удобны для интерпретации, поскольку устраняется влияние неравных отклонений переменных.

Это нагрузки, а не собственные векторы, которые обычно отображаются на биплоте рядом с оценками компонентов; последние часто отображаются нормализованными по столбцам.


Линейные дискриминанты данных радужки :

There is 3 classes and 4 variables: min(3-1,4)=2 discriminants can be extracted.
Only the extraction (no classification of data points) will be done.

Eigenvalues and canonical correlations
(Canonical correlation squared is SSbetween/SStotal of ANOVA by that discriminant)
Dis1    32.19192920     .98482089 
Dis2      .28539104     .47119702
# @Etienne's comment:
# In R eigenvalues are expected from
# lda(as.factor(Species)~.,data=iris)$svd, but this produces
#   Dis1       Dis2
# 48.642644  4.579983
# @ttnphns' comment:
# The difference might be due to different computational approach
# (e.g. me used eigendecomposition and R used svd?) and is of no importance.
# Canonical correlations though should be the same.

Eigenvectors (here, column-normalized to SS=1: cosines of rotation of variables into discriminants)
              Dis1          Dis2
SLength  -.2087418215   .0065319640 
SWidth   -.3862036868   .5866105531 
PLength   .5540117156  -.2525615400 
PWidth    .7073503964   .7694530921

Unstandardized discriminant coefficients (proportionally related to eigenvectors)
              Dis1          Dis2
SLength   -.829377642    .024102149 
SWidth   -1.534473068   2.164521235 
PLength   2.201211656   -.931921210 
PWidth    2.810460309   2.839187853
# @Etienne's comment:
# This is obtained in R with
# lda(as.factor(Species)~.,data=iris)$scaling
# which is described as being standardized discriminant coefficients in the function definition.

Standardized discriminant coefficients
              Dis1          Dis2
SLength  -.4269548486   .0124075316 
SWidth   -.5212416758   .7352613085 
PLength   .9472572487  -.4010378190 
PWidth    .5751607719   .5810398645

Pooled within-groups correlations between variables and discriminants
              Dis1          Dis2
SLength   .2225959415   .3108117231 
SWidth   -.1190115149   .8636809224 
PLength   .7060653811   .1677013843 
PWidth    .6331779262   .7372420588 

Discriminant scores (Centered 4-variable data multiplied by unstandardized coefficients)
     Dis1           Dis2
-8.061799783    .300420621 
-7.128687721   -.786660426 
-7.489827971   -.265384488 
-6.813200569   -.670631068 
-8.132309326    .514462530 
-7.701946744   1.461720967 
-7.212617624    .355836209 
-7.605293546   -.011633838 
-6.560551593  -1.015163624 
-7.343059893   -.947319209
... etc.
# @Etienne's comment:
# This is obtained in R with
# predict(lda(as.factor(Species)~.,data=iris), iris[,-5])$x

О вычислениях при извлечении дискриминантов в LDA смотрите здесь . Мы интерпретируем дискриминанты обычно с помощью дискриминантных коэффициентов или стандартизированных дискриминантных коэффициентов (последние удобнее, потому что дифференциальная дисперсия в переменных снята). Это как в PCA. Но, обратите внимание: коэффициенты здесь являются регрессионными коэффициентами моделирования дискриминантов по переменным , а не наоборот, как это было в PCA. Поскольку переменные не являются некоррелированными, коэффициенты нельзя рассматривать как ковариации между переменными и дискриминантами.

Однако вместо этого у нас есть другая матрица, которая может служить альтернативным источником интерпретации дискриминантов - объединенные внутригрупповые корреляции между дискриминантами и переменными. Поскольку дискриминанты некоррелированы, как ПК, эта матрица в некотором смысле аналогична стандартизированным нагрузкам PCA.

В целом, в то время как в PCA у нас есть единственная матрица - загрузки - для интерпретации латентных значений, в LDA у нас есть две альтернативные матрицы для этого. Если вам нужно построить график (биплот или что-то еще), вы должны решить, строить ли коэффициенты или корреляции.

И, конечно же, не нужно напоминать, что в PCA данных радужной оболочки компоненты не «знают», что существует 3 класса; от них нельзя ожидать различения классов. Дискриминанты действительно «знают», что есть классы, и это их естественная работа - различать.

ttnphns
источник
Таким образом, я могу построить после произвольного масштабирования либо «Стандартизованные дискриминантные коэффициенты», либо «Объединенные внутригрупповые корреляции между переменными и дискриминантами» на одной оси с «Дискриминантными баллами», чтобы интерпретировать результаты двумя различными способами? В моем вопросе я нанес «нестандартные дискриминантные коэффициенты» на той же оси, что и «дискриминантные оценки».
Этьен Лоу-Декари
1
@Etienne Я добавил детали, которые вы просили, в конец этого ответа stats.stackexchange.com/a/48859/3277 . Благодарим вас за щедрость.
ttnphns
1
@TLJ, должно быть: между переменными и стандартизированными компонентами. Я вставил слово. Смотрите , пожалуйста , здесь : Loadings are the coefficients to predict...как и здесь : [Footnote: The components' values...]. Нагрузки - это коэффициенты для вычисления переменных из стандартизированных и ортогональных компонентов, в силу того, что нагрузки являются ковариациями между ними и теми.
ttnphns
1
@TLJ, "эти и те" = переменные и компоненты. Вы сказали, что вычислили необработанные оценки компонентов. Стандартизируйте каждый компонент для дисперсии = 1. Вычислить ковариации между переменными и компонентами. Это были бы нагрузки. «Стандартизированная» или «измененная» нагрузка - это нагрузка, деленная на ст. отклонение соответствующей переменной.
ttnphns
1
Квадрат нагрузки - это доля дисперсии переменной, которая учитывается компонентом.
ttnphns
4

Насколько я понимаю, можно выполнить наборы линейного дискриминантного анализа, фактически он реализован в R-пакетах ggbiplot и ggord, а другая функция для этого размещена в этой теме StackOverflow .

Кроме того, в книге М. Гринакра «Biplots на практике» есть одна глава (глава 11, см. Pdf ), а на рис. 11.5 показан блок линейного дискриминантного анализа набора данных iris: введите описание изображения здесь

Том Венселерс
источник
На самом деле, вся книга находится в свободном доступе в Интернете (один PDF на главу) здесь multivariatestatistics.org/biplots.html .
амеба
Ага, не нужно даже хитрых сайтов, спасибо за это!
Том Wenseleers
2

Я знаю, что об этом спрашивали больше года назад, и ttnphns дал превосходный и всесторонний ответ, но я подумал, что я бы добавил пару комментариев для тех (как я), которые заинтересованы в PCA и LDA за их полезность в экологической наук, но имеют ограниченный статистический фон (не статистики).

ПК в PCA - это линейные комбинации исходных переменных, которые последовательно максимально объясняют общую дисперсию в многомерном наборе данных. У вас будет столько же компьютеров, сколько и исходных переменных. Процент отклонения, который объясняют ПК, задается собственными значениями используемой матрицы подобия, а коэффициент для каждой исходной переменной на каждом новом ПК задается собственными векторами. СПС не имеет никаких предположений о группах. PCA очень хорош для того, чтобы увидеть, как несколько переменных меняют значения в ваших данных (например, в биплоте). Интерпретация PCA сильно зависит от биплота.

LDA отличается по очень важной причине - он создает новые переменные (LD), максимизируя дисперсию между группами. Они по-прежнему являются линейными комбинациями исходных переменных, но вместо того, чтобы объяснять как можно больше различий с каждой последовательной LD, вместо этого они нарисованы, чтобы максимизировать РАЗНИЦУ между группами вдоль этой новой переменной. Вместо матрицы сходства LDA (и MANOVA) используют матрицу сравнения между квадратами и суммами групп и внутри групп. Собственные векторы этой матрицы - коэффициенты, с которыми первоначально работал OP, - описывают, насколько исходные переменные способствуют формированию новых LD.

По этим причинам собственные векторы из PCA дадут вам лучшее представление о том, как значение переменной изменяется в вашем облаке данных и насколько важно иметь общее отклонение в вашем наборе данных, чем LDA. Тем не менее, LDA, особенно в сочетании с MANOVA, даст вам статистический тест различий в многовариантных центроидах ваших групп и оценку ошибки в распределении точек по соответствующим группам (в некотором смысле, размер многомерного эффекта). В LDA, даже если переменная изменяется линейно (и значительно) по группам, ее коэффициент на LD может не указывать «масштаб» этого эффекта и полностью зависит от других переменных, включенных в анализ.

Я надеюсь, что это было ясно. Спасибо за ваше время. Смотрите картинку ниже ...

ПК и LD строятся по-разному, и коэффициенты для LD могут не дать вам представление о том, как исходные переменные изменяются в вашем наборе данных

Danno
источник
Это все правильно, и +1 от меня, но я не уверен, как ваш ответ отвечает на первоначальный вопрос, который был очень конкретно о том, как нарисовать биплот LDA.
амеба
Я полагаю, вы правы - я отвечал на это, в основном «Используя набор значений, полученных с помощью анализа главных компонентов, можно исследовать объясняющие переменные, составляющие каждый основной компонент. Возможно ли это и с помощью линейного дискриминантного анализа? " - и ответ да, но смысл очень отличается, как описано выше ... Спасибо за комментарий и +1!
знаю