关于PCA covariance matrix eigenvector的问题最近在做PCA人脸识别,demo已经做出来了,不过理论还不太理解,做PCA怎样把原始数据做出来的covariance matrix来求得的eigenvector就是需要那个减小维度的来投影

来源:学生作业帮助网 编辑:作业帮 时间:2024/11/13 05:25:43

关于PCA covariance matrix eigenvector的问题最近在做PCA人脸识别,demo已经做出来了,不过理论还不太理解,做PCA怎样把原始数据做出来的covariance matrix来求得的eigenvector就是需要那个减小维度的来投影
关于PCA covariance matrix eigenvector的问题
最近在做PCA人脸识别,demo已经做出来了,不过理论还不太理解,做PCA怎样把原始数据做出来的covariance matrix来求得的eigenvector就是需要那个减小维度的来投影的那个空间?
希望能简短回答一下,提示下相关的材料和文章,中文英文都可以.我知道这种知识是无价的,希望知道的朋友能给予下解答,感激不尽.
是PCA 的算法,用covariance matrix的eigenvector来作为principle components的原因

关于PCA covariance matrix eigenvector的问题最近在做PCA人脸识别,demo已经做出来了,不过理论还不太理解,做PCA怎样把原始数据做出来的covariance matrix来求得的eigenvector就是需要那个减小维度的来投影
在一维空间,数据点是有序列的.a>b就代表a在b的右边.
但在高维空间里,对数据的描述或者说比较就没有一个统一的标准.如果我们要把一个数据点从高维降下来,就需要舍弃一些信息,但同时为了表明我们的舍弃是有道理的,我们就要说,尽管我们降了,但是什么什么还被保留的最好.比如pca是保留了convariance,MDS保留了距离信息等等.
pca的原理是做SVD转换,X = UEV' (X是原数据,也就是高维空间里的那些点)
U*U'=I,也就是U转置=U逆,E是diagonal,V是the conjugate transpose of V,这个概念如果有兴趣自己再去看,PCA里面不需要这个性质.
那么,如果E是从大到小排列的(注意E只有对角线,也就是eigenvalue)保留W最先的几个元素就代表了我们保证了
W*E*E'*W'损失最小(W,E,E’,W’都只有最大的几个)
那么这个式子代表什么呢?就是X*X',也就是convariance matrix

你是说具体的求eigenvector的算法吗?这属于《数值分析》的内容,找本《数值分析》的书吧。