从实践的角度理解主成分分析_特点_数据
首先我们须要更好地理解为什么须要在机器学习中利用PCA:
去除噪声数据:有时在一个数据集中,有太多的数据须要剖析,我们是否须要包括或删除它,以提高算法的性能。然而,利用PCA,它会过滤掉噪声数据,只留下突出的数据;提高性能:通过从数据集中去除大量不干系的特色,将自动大大减少机器学习中的演习韶光;简化可视化:太多的特色迫使我们剖析太多的图形,这些图形有时看起来很混乱,无论是对我们还是对客户来说,都是为了消化数据。通过去掉那些没有影响的特色,我们将能够大略地将数据可视化,并使其更易于理解;减少过拟合:有许多发生过拟合仅仅是由于太多的特色。PCA显然有助于缓解这一问题。实现在本文中,我们通过***的Kaggle数据集实现PCA(https://www.kaggle.com/tomk23/hr-dataset/download)。通过pandas的head函数,我们可以看到数据集的特色和数据如下:
数据清理
如我们所见,原始数据集由10个特色组成,还有一些离散数据。机器学习算法不能消化离散数据,我们须要将它们转换为有序数据。
对付PCA,同样的情形下,须要将发卖和薪资特色转换为有序数据,如下所示:
data['salary']=data['salary'].map({'low':1,'medium':2,'high':3}).astype(int)data['sales']=data['sales'].map({'accounting':1,'hr':2,'IT':3,'management':4,'marketing':5,'product_mng':6,'RandD':7,'sales':8,'support':9,'technical':10}).astype(int)
这将为我们供应一个没有任何离散数据的新数据集,如下所示:
如我们所见,left 特色是一个标签,因此,在接下来的几个步骤中,可以更方便地将其设置在数据列的最左侧,以便进行数据拆分。首先,我们须要将特色转换为列表,以便能够重新排列列。
columns=data.columns.tolist()
然后将left特色放到第一列。
columns.insert(0,columns.pop(columns.index('left')))
然后再次从列脸色势转换为列。
data=data.reindex(columns=columns)
随后,我们可以通过干系性矩阵剖析每个特色之间的干系性,干系矩阵可以通过以下seaborn库构建:
correlation=data.corr()plt.figure(figsize=(10,10))sns.heatmap(correlation,vmax=1,square=True,annot=True,cmap='viridis')plt.title('Correlationbetweenfeatures')
由于left特色是一个标签,我们可以对数据集随机化,然后将数据拆分为X和Y,如下X为演习数据,y为标签数据:
X=data.iloc[:,1:10].valuesy=data.iloc[:,0].valuesX
演习数据如下:
现在我们有9个演习数据的特色:
数据标准化
现在我们已经进入了PCA的第一步,这是数据标准化,这是实行PCA之前的必要步骤。基本上,数据标准化的目的是通过利用均匀值和标准差来均衡所有数据。
例如,1-A班的安迪在数学考试中得了80分,满分为100分,标准差为6分,而1-B班的海伦在数学考试中得了320分,由于她的老师用的是450分,标准差为68分。因此,为了理解谁的分数更高,我们用百分最近标准化分数,例如,安迪得到80%,海伦得到71%。这样,我们知道安迪的分数比海伦高。
在Python中,我们可以利用sklearn的StandardScaler函数对数据进行标准化,如下所示:
fromsklearn.preprocessingimportStandardScalerX_std=StandardScaler().fit_transform(X)
Sklearn的StandardScaler的事理是用均匀值减去值,再除以标准差:
z: 标准化数据x: 原始数据µ:均匀值σ: 标准差值
均匀值:
N: 数据数量
标准差:
现在,我们的数据集已经通过利用sklearn函数实现了标准化,输出如下:
协方差矩阵
在标准化之后,我们想再次找出每个特色之间的干系性。这可以通过利用以下公式来实现:
或者可以用如下Python代码:
mean_vec=np.mean(X_std)cov_mat=(X_std-mean_vec).T.dot((X_std-mean_vec))/(X_std.shape[0]-1)print('Covariancematrix',cov_mat)
或者大略地利用Numpy的协方差函数:
print('NumPycovariancematrix:',np.cov(X_std.T))
如果两个代码将供应相同的输出:
求主分量的特色向量和特色值
既然我们通过协方差矩阵理解了每个特色之间的关系,就可以通过打算特色向量和特色值来确定它的主身分。
从上图理解,协方差矩阵被视为A,因此,可以利用下面的Numpy函数来确定特色向量和特色值:
eig_vals,eig_vecs=np.linalg.eig(cov_mat)print('Eigenvectors',eig_vecs)print('\nEigenvalues',eig_vals)
这两个矩阵都显示为:
特色值排序
既然已经找到了特色值和特色向量,我们须要对特色值进行排序,以确定哪个特色向量在数据集中最干系。首先,我们须要将每个特色值和特色向量组合成一列特色对:
eig_pairs=[(np.abs(eig_vals[i]),eig_vecs[:,i])foriinrange(len(eig_vals))]
之后,可以将特色对从最高值到最低值进行排序:
eig_pairs.sort(key=lambdax:x[0],reverse=True)
我们可以得到如下所示的有序特色值:
print('SortedEigenvalues:')foriineig_pairs:print(i[0])
现在我们可以从排序后的特色值中得到主身分。主身分的值,这是所谓的阐明方差,表明如何突出一个特色。我们目前有9个不同的主身分,因此我们将产生9个不同的百分比方差。
阐明方差可通过以下公式确定:
tot=sum(eig_vals)var_exp=[(i/tot)100foriinsorted(eig_vals,reverse=True)]
然后我们可以利用Matplotlib绘制出每个主身分的值:
withplt.style.context('bmh'):plt.figure(figsize=(6,4))plt.bar(range(9),var_exp,alpha=0.5,align='center')plt.ylabel('ExplainedVariance')plt.xlabel('Principalcomponents')plt.tight_layout()
通过上面的图表,我们可以确定最大方差在20.5%旁边。末了两个特色与其他特色比较影响比较小,由于它们的方差小于7.5%。因此,我们可以放弃这两个特色。
布局新矩阵既然决定去掉末了两个特色,我们就可以布局只包含前7个特色的新矩阵。
PCA_matrix=np.hstack((eig_pairs[0][1].reshape(9,1),eig_pairs[1][1].reshape(9,1),eig_pairs[2][1].reshape(9,1),eig_pairs[3][1].reshape(9,1),eig_pairs[4][1].reshape(9,1),eig_pairs[5][1].reshape(9,1),eig_pairs[6][1].reshape(9,1),))
然后利用点积法,利用Y=X•W建立新的特色空间。
Y=X_std.dot(PCA_matrix)
然后我们可以创建一个新的数据集,个中包含每个主身分的数据,包括如下标签:
principalDf=pd.DataFrame(data=Y,columns=['principalcomponent1','principalcomponent2','principalcomponent3','principalcomponent4','principalcomponent5','principalcomponent6','principalcomponent7'])finalDf=pd.concat([principalDf,pd.DataFrame(y,columns=['left'])],axis=1)
这将为我们供应一个新的数据集,该数据集已通过PCA处理为:
结论
关于放弃多少特色,我们有很多选择,无论是放弃2个还是3个,乃至只留下2个特色。我们已经明白,至少第一个特色是最突出的一个。因此,通过机器学习算法,如线性回归、随机森林等,处理这类数据的速率要比处理全体数据集快得多。
希望这篇文章能帮助你更多的理解PCA,感激阅读。
本文系作者个人观点,不代表本站立场,转载请注明出处!