R語言主成分和因子分析篇

主成分分析(PCA)是一種數據降維技巧,它能將大量相關變量轉化爲一組不多的不相關變量,這些無關變量稱爲主成分。git

探索性因子分析(EFA)是一系列用來發現一組變量的潛在結構的方法,經過尋找一組更小 的、潛在的或隱藏的結構來解釋已觀測到的、變量間的關係。算法

1.R中的主成分和因子分析

R的基礎安裝包中提供了PCA和EFA的函數,分別爲princomp ()和factanal()dom

psych包中有用的因子分析函數函數

函數 描述 
principal() 含多種可選的方差放置方法的主成分分析
fa() 可用主軸、最小殘差、加權最小平方或最大似然法估計的因子分析
fa.parallel() 含平等分析的碎石圖
factor.plot() 繪製因子分析或主成分分析的結果
fa.diagram() 繪製因子分析或主成分分析的載荷矩陣
scree() 因子分析和主成分分析的碎石圖
PCA/EFA 分析流程:

(1)數據預處理;PCA和EFA都是根據觀測變量間的相關性來推導結果。用戶能夠輸入原始數據矩陣或相關係數矩陣列到principal()和fa()函數中,若輸出初始結果,相關係數矩陣將會被自動計算,在計算前請確保數據中沒有缺失值;工具

(2)選擇因子分析模型。判斷是PCA(數據降維)仍是EFA(發現潛在結構)更符合你的分析目標。若選擇EFA方法時,還須要選擇一種估計因子模型的方法(如最大似然估計)。spa

(3)判斷要選擇的主成分/因子數目;code

(4)選擇主成分/因子;component

(5)旋轉主成分/因子;對象

(6)解釋結果;blog

(7)計算主成分或因子得分。

2.主成分分析

PCA的目標是用一組較少的不相關變量代替大量相關變量,同時儘量保留初始變量的信息,這些推導所得的變量稱爲主成分,它們是觀測變量的線性組合。如第一主成分爲:

PC1=a1X1=a2X2+……+akXk  它是k個觀測變量的加權組合,對初始變量集的方差解釋性最大。

第二主成分是初始變量的線性組合,對方差的解釋性排第二, 同時與第一主成分正交(不相關)。後面每個主成分都最大化它對方差的解釋程度,同時與以前全部的主成分都正交,但從實用的角度來看,都但願能用較少的主成分來近似全變量集。

(1)判斷主成分的個數

PCA中須要多少個主成分的準則:

根據先驗經驗和理論知識判斷主成分數;

根據要解釋變量方差的積累值的閾值來判斷須要的主成分數;

經過檢查變量間k*k的相關係數矩陣來判斷保留的主成分數。

最多見的是基於特徵值的方法,每一個主成分都與相關係數矩陣的特徵值 關聯,第一主成分與最大的特徵值相關聯,第二主成分與第二大的特徵值相關聯,依此類推。

Kaiser-Harris準則建議保留特徵值大於1的主成分,特徵值小於1的成分所解釋的方差比包含在單個變量中的方差更少。

Cattell碎石檢驗繪製了特徵值與主成分數的圖形,這類圖形能夠展現圖形彎曲情況,在圖形變化最大處之上的主成分都保留

最後,還能夠進行模擬依據與初始矩陣相同大小的隨機數矩陣來判斷要提取的特徵值若基於真實數據的某個特徵值大於一組隨機數據矩陣相應的平均特徵值,那麼該主成分能夠保留。該方法稱做平行分析。

利用fa.parallel()函數,可同時對三種特徵值判別準則進行評價。

library(psych)
fa.parallel(USJudgeRatings[,-1],fa="PC",n.iter=100,show.legend=FALSE,main="Screen plot with parallel analysis")

碎石頭、特徵值大於1準則和100次模擬的平行分析(虛線)都代表保留一個主成分便可保留數據集的大部分信息,下一步是使用principal()函數挑選出相應的主成分。

(2)提取主成分

principal()函數可根據原始數據矩陣或相關係數矩陣作主成分分析

格式爲:principal(的,nfactors=,rotate=,scores=)

其中:r是相關係數矩陣或原始數據矩陣;

nfactors設定主成分數(默認爲1);

rotate指定旋轉的方式[默認最大方差旋轉(varimax)]

scores設定是否須要計算主成分得分(默認不須要)。

美國法官評分的主成分分析
library(psych)
pc<-principal(USJudgeRatings[,-1],nfactors=1)
pc

此處,輸入的是沒有ONT變量的原始,並指定獲取一個未旋轉的主成分。因爲PCA只對相關係數矩陣進行分析,在獲取主成分前,原始數據將會被自動轉換爲相關係數矩陣。

PC1欄包含了成分載荷,指觀測變量與主成分的相關係數。若是提取不止一個主成分,則還將會有PC二、PC3等欄。成分載荷(component loadings)可用來解釋主成分的含義。此處可看到,第一主成分(PC1)與每一個變量都高度相關,也就是說,它是一個可用來進行通常性評價的維度。

h2柆指成分公因子方差-----主成分對每一個變量的方差解釋度。

u2欄指成分惟一性-------方差沒法 被主成分解釋的比例(1-h2)。

SS loadings行包含了主成分相關聯的特徵值,指的是與特定主成分相關聯的標準化後的方差值。

Proportin Var行表示的是每一個主成分對整個數據集的解釋程度。


結果不止一個主成分的狀況

library(psych)
fa.parallel(Harman23.cor$cov,n.obs=302,fa="pc",n.iter=100,show.legend=FALSE,main="Scree plot with parallel analysis")


載荷陣解釋了成分和因子的含義,第一成分與每一個身體測量指標都正相關,看起來彷佛是一個通常性的衡量因子;第二主成分與前四個變量負相關,與後四個變量正相關,所以它看起來彷佛是一個長度容量因子。但理念上的東西都不容易構建,當提取了多個成分時,對它們進行旋轉可以使結果更具備解釋性。

(3)主成分旋轉

旋轉是一系列將成分載荷陣變得更容易解釋的數學方法,它們儘量地對成分去噪。

旋轉方法有兩種:使選擇的成分保持不相關(正效旋轉),和讓它們變得相關(斜交旋轉)。

旋轉方法也會依據去噪定義的不一樣而不一樣。

最流行的下次旋轉是方差極大旋轉它試圖對載荷陣的列進行去噪,使得每一個成分只是由一組有限的變量來解釋(即載荷陣每列只有少數幾個很大的載荷,其餘都是很小的載荷)。

install.packages("GPArotation")
library(GPArotation)
rc<-principal(Harman23.cor$cov,nfactors=2,rotate="varimax")
rc

列名從PC變成了RC,以表示成分被旋轉

觀察能夠發現第一主成分主要由前四個變量來解釋,第二主成分主要由變量5到變量8來解釋。

注意兩個主成分仍不相關,對變量的解釋性不變,這是由於變量的羣組沒有發生變化。另外,兩個主成分放置後的累積方差解釋性沒有變化,變的只是各個主成分對方差的解釋(成分1從58%變爲44%,成分2從22%變爲37%)。各成分的方差解釋度趨同,準確來講,此時應該稱它們爲成分而不是主成分。

(4)獲取主成分得分

利用principal()函數,很容易得到每一個調查對象在該主成分上的得分。

<strong>從原始數據中獲取成分得分</strong>
library(psych)
pc<-principal(USJudgeRatings[,-1],nfactors=1,score=TRUE)
head(pc$scores)

當scores=TRUE時,主成分得分存儲在principal()函數返回對象的scores元素中。

cor(USJudgeRatings$CONT,PC$scores)

<strong>獲取主成分得分的係數</strong>
library(psych)
rc<-principal(Harman23.cor$cov,nfactor=2,rotate="varimax")
round(unclass(rc$weights),2)

獲得主成分得分:

PC1=0.28*height+0.30*arm.span+0.30*forearm+0.29*lower.leg-0.06*weight-0.08*bitro.diameter-0.10*chest.girth-0.04*chest.width

PC2=-0.05*height-0.08*arm.span-0.09*forearm-0.06*lower.leg+0.33*weight+0.32*bitro.diameter+0.34*chest.girth+0.27*chest.width

3.探索性因子分析

EFA的目標是經過發掘隱藏在數據下的一組較少的、更爲基本的沒法觀測的變量,來解釋一組可觀測變量的相關性。這些虛擬的、沒法觀測的變量稱做因子。(每一個因子被認爲可解釋多個觀測變量間共有的方差,也叫做公共因子)
模型的形式爲:
Xi=a1F1+a2F2+……apFp+Ui
Xi是第i個可觀測變量(i=1,2,……k)
Fj是公共因子(j=1,2,……p)
而且p<k

options(digits=2)
covariances<-ability.cov$cov
correlations<-cov2cor(covariances)
correlations

ability.cov提供了變量的協方差矩陣

cov2cor()函數將其轉化爲相關係數矩陣

(1)判斷需提取的公共因子數

library(psych)
convariances<-ability.cov$cov
correlations<-cov2cor(covariances)
fa.parallel(correlations,n.obs=112,fa="both",n.iter=100,main="Scree plots with parallel analysis")

若使用PCA方法,可能會選擇一個成分或兩個成分。當搖擺不定時,高估因子數一般比低估因子數的結果好,由於高估因子數通常較少曲解「真實」狀況。

(2)提取公共因子

可以使用fa()函數來提取因子
fa()函數的格式爲:
fa(r,nfactors=,n.obs=,rotate=,scores=,fm)
r是相關係數矩陣或原始數據矩陣;
nfactors設定提取的因子數(默認爲1);
n.obs是觀測數(輸入相關係數矩陣時須要填寫);
rotate設定放置的方法(默認互變異數最小法);
scores設定是否計算因子得分(默認不計算);
fm設定因子化方法(默認極小殘差法)。

與PCA不一樣,提取公共因子的方法不少,包括最大似然法(ml)主軸迭代法(pa)加權最小二乘法(wls)廣義加權最小二乘法(gls)最小殘差法(minres)

<strong>未旋轉的主軸迭代因子法</strong>
fa<-fa(correlations,nfactors=2,rotate="none",fm="pa")
fa


(3)因子旋轉

<strong>用正交旋轉提取因子</strong>
fa.varimax<-fa(correlations,nfactors=2,rotate="varimax",fm="pa")
fa.varimax
<strong>正交放置將人爲地強制兩個因子不相關</strong>
<strong>正交旋轉,因子分析的重點在於因子結構矩陣(變量與因子的相關係數)</strong>



用斜交旋轉提取因子
fa.promax<-fa(correlations,nfactors=2,rotate="promax",fm="pa")
fa.promax
<strong>對於斜交旋轉,因子分析會考慮三個矩陣:因子結構矩陣、因子模式矩陣和因子關聯矩陣</strong>
<strong>因子模式矩陣即標準化的迴歸係數矩陣,它列出了因子的預測變量的權重;</strong>
<strong>因子關聯矩陣即因子相關係數矩陣;</strong>
<strong>因子結構矩陣(或稱因子載荷陣),可以使用公式F=P*Phi來計算獲得,其中F是載荷陣,P爲因子模式矩陣,Phi爲因子關聯矩陣。</strong>


fsm<-function(oblique){
  if(class(oblique)[2]=="fa"&is.null(oblique$Phi)){
    warning("Object doesn't look like oblique EFA")
  }else{
    P<-unclass(oblique$loading)
    F<-P%*%oblique$Phi
    colnames(F)<-c("PA1","PA2")
    return (F)
  }
}
fsm(fa.promax)
能夠看到變量與因子間的相關係數。將它們與正交旋轉所得因子載荷陣相比,發現該載荷陣列的噪音較大,這是由於以前容許潛在因子相關。雖然斜交方法更爲複雜,但模型將更加符合真實數據。

使用factor.plot()fa.diagram()函數,可繪製正交或斜交結果的圖形
factor.plot(fa.promax,labels=rownames(fa.promax$loadings))
fa.diagram(fa.promax,simple=TRUE)

(4)因子得分

EFA並不十分關注因子得分,在fa()函數中添加score=TRUE選項,即可輕鬆地獲得因子得分。另外還能夠獲得得分系數(標準化的迴歸權重),它在返回對象的weights元素中。

fa.promax$weights

4.其餘 

(1)

對因子分析很是有用的軟件包,FactoMineR包不只提供了PCA和EFA方法,還包含潛變量模型。
FAiR包使用遺傳算法來估計因子分析模型,加強了模型參數估計能力,可以處理不等式的約束條件;
GPArotation包提供了許多因子旋轉方法
nFactors包,提供了用來判斷因子數目方法。

(2)其餘潛變量模型

先驗知識的模型:先從一些先驗知識開始,好比變量背後有幾個因子、變量在因子上的載荷是怎樣的、因子間的相關性如何,而後經過收集數據檢驗這些先驗知識。這種方法稱做驗證性因子分析(CFA)。   作CFA的軟件包:sem、openMx和lavaan等。
ltm包能夠用來擬合測驗和問卷中各項目的潛變量模型。
潛類別模型(潛在的因子被認爲是類別型而非連續型)可經過FlexMix、lcmm、randomLCA和poLC包進行擬合。lcda包可作潛類別判別分析,而lsa可作潛在語義分析----一種天然語言處理中的方法。ca包提供了可作簡單和多重對應分析的函數。
R中還包含了衆多的多維標度法(MDS)計算工具。MDS便可用發現解釋類似性和可測對象間距離的潛在維度。
cmdscale()函數可作經典的MDS
MASS包中的isoMDS()函數可作非線性MDS
vagan包中則包含了兩種MDS的函數