PCA是机器学习和统计学领域一类特征降维算法。由于样本数据往往会有很多的特征,这会带来以下挑战:
import numpy as np import matplotlib.pyplot as plt #代降维数据点的构建 num = 20 x = np.linspace(-5,5,num) y = x + np.random.rand(num) data = np.row_stack((x,y)) #2*20 plt.scatter(x,y) #计算数据集的协方差矩阵 cov = (1/num) * np.dot(data,data.T) #求解协方差的特征值与特征向量 e,v = np.linalg.eig(cov) print('特征值:',e) print('特征向量',v) #利用特征向量组成的矩阵对原始数据进行线性变换 trans_data = np.dot(v,data) plt.scatter(trans_data[0],trans_data[1]) plt.ylim(-4,4) plt.show()
如图所示,原始二维数据具有很强的线性相关性,降维后的数据在y方向上几乎为常数。直观来看,原本左图是以x和y轴为坐标轴,而在pca降维后的数据可以看做是以y=x为x轴,并且其另外一个方向上的数据因为变化不大可以被删除,达到降维的目的。