PCA类在降维和数据重构的简单用法.doc

上传人:白大夫 文档编号:3269223 上传时间:2019-08-07 格式:DOC 页数:4 大小:20KB
返回 下载 相关 举报
PCA类在降维和数据重构的简单用法.doc_第1页
第1页 / 共4页
亲,该文档总共4页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《PCA类在降维和数据重构的简单用法.doc》由会员分享,可在线阅读,更多相关《PCA类在降维和数据重构的简单用法.doc(4页珍藏版)》请在三一文库上搜索。

1、PCA类在降维和数据重构的简单用法前言前两篇文章介绍了PCA(主成分分析方法)和SVD(奇异值分解)的算法原理,本文基于scikit learn包介绍了PCA算法在降维和数据重构的应用,并分析了PCA类与sparsePCA类的区别。由于PCA算法的特征值分解是奇异值分解SVD的一个特例,因此sklearn工具的PCA库是基于SVD实现的。本文内容代码链接:https:/github/zhangleiszu/machineLearning/tree/master/PCA目录1. PCA类介绍2. sklearn.decomposition.PCA的参数说明3. sklearn.decomposi

2、tion.MiniBatchSparsePCA的参数说明4. PCA类在降维的应用5. PCA类与MiniBatchSparsePCA类的区别6. PCA在数据重构的应用7. 总结1. PCA类介绍所有PCA类都在sklearn.decompostion包中,主要有以下几类:1) sklearn.decompostion.PCA:实际项目中用的最多的PCA类;2) sklearn.decompostion.IncrementPCA:PCA最大的缺点是只支持批处理,也就是说所有数据都必须在主内存空间计算,IncrementalPCA使用多个batch,然后依次调用partial_fit函数,降维

3、结果与PCA类基本一致 。3) sklearn.decomposition.SparsePCA和sklearn.decomposition.MiniBatchSparsePCA:SparsePCA类和MiniBatchSparsePCA类算法原理一样,都是把降维问题用转换为回归问题,并在优化参数时增加了正则化项(L1惩罚项),不同点是MiniBatchSparsePCA使用部分样本特征并迭代设置的次数进行PCA降维 。4) sklearn.decomposition.KernelPCA:对于线性不可分的特征,我们需要对特征进行核函数映射为高维空间,然后进行PCA降维 。流程图如下:2. skl

4、earn.decomposition.PCA类的参数说明1) n_components:取值为:整形,浮点型,None或字符串。n_components为空时,取样本数和特征数的最小值:n_components = min(n_samples , n_features)0 ten:布尔型变量 。若为True,表示对降维后的变量进行归一化;若为False,则不进行归一化 ,默认值为False。4) svd_solver:字符串变量,取值为:auto,full,arpack,randomizedrandomized:如果训练数据大于500500,降维后的维数小于数据的最小维数0.8倍,采用加快SV

5、D的随机算法 。full:传统意义上的SVD算法,调用scipy.linalg.svd类。arpack:调用scipy.sparse.linalg.svds类,降维后的维数符合:0 ained_variance_:向量空间对应的方差值 。explained_variance_ratio_:向量空间的方差值占总方差值的百分比 。singular_values:向量空间对应的奇异值 。3.sklearn.decomposition.MiniBatchSparsePCA的参数说明本节就介绍两个常用的重要变量,用法与PCA类基本相同。n_components:降维后的维数alpha:正则化参数,值越高

6、,主成分分量越稀疏(分量包含0的个数越多)。4. PCA类在降维的应用Iris数据集包含了三种花(Setosa,Versicolour和Virginica),特征个数为4。下载Iris数据集:iris = datasets.load_iris()X = iris.datay = iris.target设置降维后的维数为2:pca = PCA(n_components=2)降维后的数据集:X_r = pca.fit(X).transform(X)降维后的特征分布图:5. PCA类与MiniBatchSparsePCA类的区别PCA类主成分分量是非零系数构成的,导致了PCA降维的解释性很差,若主成

7、分分量包含了很多零系数,那么主成分分量可以将很多非主要成分的影响降维0,不仅增强了降维的解释性,也降低了噪声的影响 ,缺点是可能丢失了训练数据的重要信息。MiniBatchSparsePCA与PCA类的区别是使用了L1正则化项,导致了产生的主成分分量包含了多个0,L1正则化系数越大,0的个数越多,公式如下:用图来说明区别: 左图是PCA类的主成分分量空间,右图是MiniBatchSparsePCA类的主成分分量空间,比较两图可知,右图能够定位到重要的特征部位 。若是用数值表示,MiniBatchSparsePCA类的主成分分量值为:由上图可知,主成分分量包含了很多零分量 。6. PCA在数据重构的应用数据重构算法借鉴上一篇文章的图:浅蓝色部分矩阵的乘积为数据的重构过程,r为选择的主成分分量个数 。r越大,重构的数据与原始数据越接近或主成分分量的方差和比例越大,重构的数据与原始数据越接近 ,图形解释如下:n_components是0.2的数据重构图:n_components是0.9的数据重构图:因此,主成分分量越多,重构的数据与原始数据越接近。7. 总结本文介绍了PCA类在降维和数据重构的简单用法以及分析了sparsePCA类稀疏主成分分量的原理。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 其他


经营许可证编号:宁ICP备18001539号-1