R语言主成分和因子分析

主成分分析(PCA)是一种数据降维技巧,它能将大量相关变量转化为一组很少的不相关变量,这些无关变量称为主成分。

探索性因子分析(EFA)是一系列用来发现一组变量的潜在结构的方法,通过寻找一组更小 的、潜在的或隐藏的结构来解释已观测到的、变量间的关系。

1.R中的主成分和因子分析

R的基础安装包中提供了PCA和EFA的函数,分别为princomp ()和factanal()

psych包中有用的因子分析函数

函数

描述

principal()

含多种可选的方差放置方法的主成分分析

fa()

可用主轴、最小残差、加权最小平方或最大似然法估计的因子分析

fa.parallel()

含平等分析的碎石图

factor.plot()

绘制因子分析或主成分分析的结果

fa.diagram()

绘制因子分析或主成分分析的载荷矩阵

scree()

因子分析和主成分分析的碎石图

PCA/EFA 分析流程:

(1)数据预处理;PCA和EFA都是根据观测变量间的相关性来推导结果。用户可以输入原始数据矩阵或相关系数矩阵列到principal()和fa()函数中,若输出初始结果,相关系数矩阵将会被自动计算,在计算前请确保数据中没有缺失值;

(2)选择因子分析模型。判断是PCA(数据降维)还是EFA(发现潜在结构)更符合你的分析目标。若选择EFA方法时,还需要选择一种估计因子模型的方法(如最大似然估计)。

(3)判断要选择的主成分/因子数目;

(4)选择主成分/因子;

(5)旋转主成分/因子;

(6)解释结果;

(7)计算主成分或因子得分。

2.主成分分析

PCA的目标是用一组较少的不相关变量代替大量相关变量,同时尽可能保留初始变量的信息,这些推导所得的变量称为主成分,它们是观测变量的线性组合。如第一主成分为:

PC1=a1X1=a2X2+……+akXk 它是k个观测变量的加权组合,对初始变量集的方差解释性最大。

第二主成分是初始变量的线性组合,对方差的解释性排第二, 同时与第一主成分正交(不相关)。后面每一个主成分都最大化它对方差的解释程度,同时与之前所有的主成分都正交,但从实用的角度来看,都希望能用较少的主成分来近似全变量集。

(1)判断主成分的个数

PCA中需要多少个主成分的准则:

根据先验经验和理论知识判断主成分数;

根据要解释变量方差的积累值的阈值来判断需要的主成分数;

通过检查变量间k*k的相关系数矩阵来判断保留的主成分数。

最常见的是基于特征值的方法,每个主成分都与相关系数矩阵的特征值 关联,第一主成分与最大的特征值相关联,第二主成分与第二大的特征值相关联,依此类推。

Kaiser-Harris准则建议保留特征值大于1的主成分,特征值小于1的成分所解释的方差比包含在单个变量中的方差更少。

Cattell碎石检验则绘制了特征值与主成分数的图形,这类图形可以展示图形弯曲状况,在图形变化最大处之上的主成分都保留。

最后,还可以进行模拟,依据与初始矩阵相同大小的随机数矩阵来判断要提取的特征值。若基于真实数据的某个特征值大于一组随机数据矩阵相应的平均特征值,那么该主成分可以保留。该方法称作平行分析。

利用fa.parallel()函数,可同时对三种特征值判别准则进行评价。

[plain] view plain copy

  1. library(psych)
  2. fa.parallel(USJudgeRatings[,-1],fa="PC",n.iter=100,show.legend=FALSE,main="Screen plot with parallel analysis")

碎石头、特征值大于1准则和100次模拟的平行分析(虚线)都表明保留一个主成分即可保留数据集的大部分信息,下一步是使用principal()函数挑选出相应的主成分。

(2)提取主成分

principal()函数可根据原始数据矩阵或相关系数矩阵做主成分分析

格式为:principal(的,nfactors=,rotate=,scores=)

其中:r是相关系数矩阵或原始数据矩阵;

nfactors设定主成分数(默认为1);

rotate指定旋转的方式[默认最大方差旋转(varimax)]

scores设定是否需要计算主成分得分(默认不需要)。

[plain] view plain copy

  1. 美国法官评分的主成分分析
  2. library(psych)
  3. pc<-principal(USJudgeRatings[,-1],nfactors=1)
  4. pc

此处,输入的是没有ONT变量的原始,并指定获取一个未旋转的主成分。由于PCA只对相关系数矩阵进行分析,在获取主成分前,原始数据将会被自动转换为相关系数矩阵。

PC1栏包含了成分载荷,指观测变量与主成分的相关系数。如果提取不止一个主成分,则还将会有PC2、PC3等栏。成分载荷(component loadings)可用来解释主成分的含义。此处可看到,第一主成分(PC1)与每个变量都高度相关,也就是说,它是一个可用来进行一般性评价的维度。

h2柆指成分公因子方差-----主成分对每个变量的方差解释度。

u2栏指成分唯一性-------方差无法 被主成分解释的比例(1-h2)。

SS loadings行包含了主成分相关联的特征值,指的是与特定主成分相关联的标准化后的方差值。

Proportin Var行表示的是每个主成分对整个数据集的解释程度。

结果不止一个主成分的情况

[plain] view plain copy

  1. library(psych)
  2. fa.parallel(Harman23.cor$cov,n.obs=302,fa="pc",n.iter=100,show.legend=FALSE,main="Scree plot with parallel analysis")

载荷阵解释了成分和因子的含义,第一成分与每个身体测量指标都正相关,看起来似乎是一个一般性的衡量因子;第二主成分与前四个变量负相关,与后四个变量正相关,因此它看起来似乎是一个长度容量因子。但理念上的东西都不容易构建,当提取了多个成分时,对它们进行旋转可使结果更具有解释性。

(3)主成分旋转

旋转是一系列将成分载荷阵变得更容易解释的数学方法,它们尽可能地对成分去噪。

旋转方法有两种:使选择的成分保持不相关(正效旋转),和让它们变得相关(斜交旋转)。

旋转方法也会依据去噪定义的不同而不同。

最流行的下次旋转是方差极大旋转,它试图对载荷阵的列进行去噪,使得每个成分只是由一组有限的变量来解释(即载荷阵每列只有少数几个很大的载荷,其他都是很小的载荷)。

[plain] view plain copy

  1. install.packages("GPArotation")
  2. library(GPArotation)
  3. rc<-principal(Harman23.cor$cov,nfactors=2,rotate="varimax")
  4. rc

列名从PC变成了RC,以表示成分被旋转

观察可以发现第一主成分主要由前四个变量来解释,第二主成分主要由变量5到变量8来解释。

注意两个主成分仍不相关,对变量的解释性不变,这是因为变量的群组没有发生变化。另外,两个主成分放置后的累积方差解释性没有变化,变的只是各个主成分对方差的解释(成分1从58%变为44%,成分2从22%变为37%)。各成分的方差解释度趋同,准确来说,此时应该称它们为成分而不是主成分。

(4)获取主成分得分

利用principal()函数,很容易获得每个调查对象在该主成分上的得分。

[plain] view plain copy

  1. <strong>从原始数据中获取成分得分</strong>

[plain] view plain copy

  1. library(psych)
  2. pc<-principal(USJudgeRatings[,-1],nfactors=1,score=TRUE)
  3. head(pc$scores)

当scores=TRUE时,主成分得分存储在principal()函数返回对象的scores元素中。

[plain] view plain copy

  1. cor(USJudgeRatings$CONT,PC$scores)

[plain] view plain copy

  1. <strong>获取主成分得分的系数</strong>

[plain] view plain copy

  1. library(psych)
  2. rc<-principal(Harman23.cor$cov,nfactor=2,rotate="varimax")
  3. round(unclass(rc$weights),2)

得到主成分得分:

PC1=0.28*height+0.30*arm.span+0.30*forearm+0.29*lower.leg-0.06*weight-0.08*bitro.diameter-0.10*chest.girth-0.04*chest.width

PC2=-0.05*height-0.08*arm.span-0.09*forearm-0.06*lower.leg+0.33*weight+0.32*bitro.diameter+0.34*chest.girth+0.27*chest.width

3.探索性因子分析

EFA的目标是通过发掘隐藏在数据下的一组较少的、更为基本的无法观测的变量,来解释一组可观测变量的相关性。这些虚拟的、无法观测的变量称作因子。(每个因子被认为可解释多个观测变量间共有的方差,也叫作公共因子)

模型的形式为:

Xi=a1F1+a2F2+……apFp+Ui

Xi是第i个可观测变量(i=1,2,……k)

Fj是公共因子(j=1,2,……p)

并且p<k

[plain] view plain copy

  1. options(digits=2)
  2. covariances<-ability.cov$cov
  3. correlations<-cov2cor(covariances)
  4. correlations

ability.cov提供了变量的协方差矩阵

cov2cor()函数将其转化为相关系数矩阵

(1)判断需提取的公共因子数

[plain] view plain copy

  1. library(psych)
  2. convariances<-ability.cov$cov
  3. correlations<-cov2cor(covariances)
  4. fa.parallel(correlations,n.obs=112,fa="both",n.iter=100,main="Scree plots with parallel analysis")

若使用PCA方法,可能会选择一个成分或两个成分。当摇摆不定时,高估因子数通常比低估因子数的结果好,因为高估因子数一般较少曲解“真实”情况。

(2)提取公共因子

可使用fa()函数来提取因子

fa()函数的格式为:

fa(r,nfactors=,n.obs=,rotate=,scores=,fm)

r是相关系数矩阵或原始数据矩阵;

nfactors设定提取的因子数(默认为1);

n.obs是观测数(输入相关系数矩阵时需要填写);

rotate设定放置的方法(默认互变异数最小法);

scores设定是否计算因子得分(默认不计算);

fm设定因子化方法(默认极小残差法)。

与PCA不同,提取公共因子的方法很多,包括最大似然法(ml)、主轴迭代法(pa)、加权最小二乘法(wls)、广义加权最小二乘法(gls)和最小残差法(minres)。

[plain] view plain copy

  1. <strong>未旋转的主轴迭代因子法</strong>

[plain] view plain copy

  1. fa<-fa(correlations,nfactors=2,rotate="none",fm="pa")
  2. fa

(3)因子旋转

[plain] view plain copy

  1. <strong>用正交旋转提取因子</strong>

[plain] view plain copy

  1. fa.varimax<-fa(correlations,nfactors=2,rotate="varimax",fm="pa")
  2. fa.varimax

[plain] view plain copy

  1. <strong>正交放置将人为地强制两个因子不相关</strong>

[plain] view plain copy

  1. <strong>正交旋转,因子分析的重点在于因子结构矩阵(变量与因子的相关系数)</strong>

用斜交旋转提取因子

[plain] view plain copy

  1. fa.promax<-fa(correlations,nfactors=2,rotate="promax",fm="pa")
  2. fa.promax

[plain] view plain copy

  1. <strong>对于斜交旋转,因子分析会考虑三个矩阵:因子结构矩阵、因子模式矩阵和因子关联矩阵</strong>

[plain] view plain copy

  1. <strong>因子模式矩阵即标准化的回归系数矩阵,它列出了因子的预测变量的权重;</strong>

[plain] view plain copy

  1. <strong>因子关联矩阵即因子相关系数矩阵;</strong>

[plain] view plain copy

  1. <strong>因子结构矩阵(或称因子载荷阵),可使用公式F=P*Phi来计算得到,其中F是载荷阵,P为因子模式矩阵,Phi为因子关联矩阵。</strong>

[plain] view plain copy

  1. fsm<-function(oblique){
  2. if(class(oblique)[2]=="fa"&is.null(oblique$Phi)){
  3. warning("Object doesn't look like oblique EFA")
  4. }else{
  5. P<-unclass(oblique$loading)
  6. F<-P%*%oblique$Phi
  7. colnames(F)<-c("PA1","PA2")
  8. return (F)
  9. }
  10. }
  11. fsm(fa.promax)

可以看到变量与因子间的相关系数。将它们与正交旋转所得因子载荷阵相比,发现该载荷阵列的噪音较大,这是因为之前允许潜在因子相关。虽然斜交方法更为复杂,但模型将更加符合真实数据。

使用factor.plot()或fa.diagram()函数,可绘制正交或斜交结果的图形

[plain] view plain copy

  1. factor.plot(fa.promax,labels=rownames(fa.promax$loadings))

[plain] view plain copy

  1. fa.diagram(fa.promax,simple=TRUE)

(4)因子得分

EFA并不十分关注因子得分,在fa()函数中添加score=TRUE选项,便可轻松地得到因子得分。另外还可以得到得分系数(标准化的回归权重),它在返回对象的weights元素中。

[plain] view plain copy

  1. fa.promax$weights

4.其他

(1)

对因子分析非常有用的软件包,FactoMineR包不仅提供了PCA和EFA方法,还包含潜变量模型。

FAiR包使用遗传算法来估计因子分析模型,增强了模型参数估计能力,能够处理不等式的约束条件;

GPArotation包提供了许多因子旋转方法

nFactors包,提供了用来判断因子数目方法。

(2)其他潜变量模型

先验知识的模型:先从一些先验知识开始,比如变量背后有几个因子、变量在因子上的载荷是怎样的、因子间的相关性如何,然后通过收集数据检验这些先验知识。这种方法称作验证性因子分析(CFA)。   做CFA的软件包:sem、openMx和lavaan等。

ltm包可以用来拟合测验和问卷中各项目的潜变量模型。

潜类别模型(潜在的因子被认为是类别型而非连续型)可通过FlexMix、lcmm、randomLCA和poLC包进行拟合。lcda包可做潜类别判别分析,而lsa可做潜在语义分析----一种自然语言处理中的方法。ca包提供了可做简单和多重对应分析的函数。

R中还包含了众多的多维标度法(MDS)计算工具。MDS即可用发现解释相似性和可测对象间距离的潜在维度。

cmdscale()函数可做经典的MDS

MASS包中的isoMDS()函数可做非线性MDS

vagan包中则包含了两种MDS的函数

原文发布于微信公众号 - 大数据挖掘DT数据分析(datadw)

原文发表时间:2016-01-21

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏AI科技大本营的专栏

机器学习决策树的分裂到底是什么?这篇文章讲明白了!

作者 | Prashant Gupta 译者 | AI100(rgznai100) 在实际生活中,树的类比如影随形。事实证明,树形结构对于机器学习领域同样有着广...

35911
来自专栏人工智能LeadAI

TensorFlow从0到1 | 第八篇:万能函数的形态:人工神经网络

之前花了不小的篇幅来解释线性回归,尽管线性模型本身十分简单,但是确定模型参数的过程,却是一种数据驱动的、自学习的通用方式。准确的说,这个过程,是基于数据的、运用...

34510
来自专栏机器之心

观点 | 如何可视化卷积网络分类图像时关注的焦点

选自hackevolve 作者:Saideep Talari 机器之心编译 参与:乾树、思源 在我们使用 CNN 进行图片分类时,模型到底关注的是图像的哪个区域...

2727
来自专栏深度学习之tensorflow实战篇

因子分析与主成分分析之间爱恨离愁。FA与FCA

主成分分析和因子分析无论从算法上还是应用上都有着比较相似之处,本文结合以往资料以及自己的理解总结了以下十大不同之处,适合初学者学习之用。 1.原理不同 主成分分...

3499
来自专栏智能算法

以色列理工暑期学习-MLE、MAP参数估计方法

小编有幸参加到以色列理工的暑期交流项目中,并选择了《机器学习导论》这门经典课程,进行再次学习并回顾知识点查缺补漏; 既然是作为导论,国外的课程和国内的课程的区别...

2647
来自专栏专知

【干货】基于注意力机制的神经匹配模型用于短文本检索

【导读】在基于检索的问答系统中,很重要的一步是将检索到的答案进行排序得到最佳的答案。在检索到的答案比较短时,对答案进行排序也成为了一个难题。使用深度学习的方法,...

4168
来自专栏数据科学与人工智能

【算法】决策树与ID3算法

小编邀请您,先思考: 1 如何构建决策树? 2 决策树适合解决什么问题? 1. 什么是决策树/判定树(decision tree)? 决策树(Decision ...

3195
来自专栏数据科学与人工智能

【数据挖掘】文本挖掘:语义分析的一些方法

语义分析,本文指运用各种机器学习方法,挖掘与学习文本、图片等的深层次概念。 1 文本基本处理 在讲文本语义分析之前,我们先说下文本基本处理,因为它构成了语义分析...

5035
来自专栏AI科技大本营的专栏

重磅 | 周志华最新论文:首个基于决策树集成的自动编码器,表现优于DNN

向AI转型的程序员都关注了这个号☝☝☝ ? 翻译 | AI科技大本营(rgznai100) 参与 | 周翔、reason_W成龙,Shawn 今年 2 月,南京...

3614
来自专栏灯塔大数据

从神经网络说起:深度学习初学者不可不知的25个术语和概念(上)

人工智能,深度学习和机器学习,不论你现在是否能够理解这些概念,你都应该学习。否则三年内,你就会像灭绝的恐龙一样被社会淘汰。 ——马克·库班(NBA小牛队老板,...

3386

扫描关注云+社区