python的Numpy库操作矩阵

原文链接

一、标量、向量、矩阵、张量

 1 import numpy as np
 2 #向量、张量、标量、矩阵
 3 s = 5;
 4 v = np.array([1,2]);
 5 m = np.array([[1,2],[3,4]]);
 6 t = np.array([[[1,2,3],[4,5,6],[7,8,9]],[[11,12,13],[14,15,16],[17,18,19]],[[21,22,23],[24,25,26],[27,28,29]]]);
 7 print("标量"+str(s));
 8 print("向量"+str(v));
 9 print("矩阵"+str(m));
10 print("张量"+str(t));

二、矩阵转置

1 #矩阵的转置
2 m_t = m.transpose();
3 print("矩阵的转置"+str(m_t));

三、矩阵加法

1 #矩阵的相加
2 m_sum = m + m_t;
3 print("矩阵的相加"+str(m_sum));

四、矩阵乘法

1 #矩阵的乘法
2 m_mutiply = np.dot(m_t,m);#矩阵的乘法
3 m_mutiply = m_t.dot(m);#矩阵乘法
4 m_muti = np.mutiply(m,m_t);#逐元素相乘
5 m_muti1 = m*m_t;#逐元素相乘
6 print("矩阵相乘"+str(m_mutiply));
7 print("逐元素相乘"+str(m_muti)+"第二种"+str(m_muti1));

五、单位矩阵

1 #单位矩阵
2 matrix_danwei = np.identity(3);
3 print("单位矩阵"+str(matrix_danwei));

六、矩阵的逆

1 #矩阵的逆
2 A = [[1,2],[3,4]];
3 A_inv = np.linalg.inv(A);
4 print("A的逆矩阵"+str(A_inv));

七、矩阵范数

#矩阵的范数,机器学习使用的是F范数
arr = np.array([1,3]);
arr_two_norm = np.linalg.norm(arr,ord=2);#向量2范数
arr_one_norm = np.linalg.norm(arr,ord=1);#向量1范数
arr_inf_norm = np.linalg.norm(arr,ord=np.inf);#向量无穷范数
arr_matrix = np.array([[1,2],[3,4]]);
arr_matrix__frobenius_norm = np.linalg.norm(arr_matrix,ord="fro");#矩阵的F范数

八、特征值分解

1 #特征值分解
2 A_matrix = np.array([[1,2,3],[4,5,6],[7,8,9]]);
3 A_matrix_Eigen = np.linalg.eigvals(A)#计算特征值
4 eigvals,eigvectors = np.linalg.eig(A_matrix); #特征值:eigvals 特征向量:eigvectors

九、奇异值分解

1 #奇异值分解
2 A1_matrix = np.array([[1,2,3],[4,5,6]]);
3 U,D,V = np.linalg.svd(A);#U是左奇异向量  V是右奇异向量  D是对角矩阵,对角元素是A的奇异值

十、PCA降维

  1、关于PCA降维,请移步

 

 

  根据步骤写出PCA,并且保存至pca_file.py文件中

import numpy as np 
class PCA():
    def __init__(self):#构造函数
        pass#只做占位符,不执行任何操作
    def fit(X,n_components):
        n_samples = np.shape(X)[0] #得到矩阵X的行数
        covariance_matrix = (1/(n_samples-1))*(X-X.mean(axis=0)).T.dot(X - X.mean(axis=0))
        #对协方差矩阵进行特征值分解
        eigenvalues,eigenvectors = np.linalg.eig(covariance_matrix)
        #对特征值(特征向量)从大到小排序
        idx = eigenvalues.argsort()[::-1]
        eigenvalues = eigenvalues[idx][:n_components]
        eigenvectors = np.atleast_1d(eigenvectors[:,idx])[:,:n_components]
        #得到低维表示
        X_transformed = X.dot(eigenvectors)
        return X_transformed

  2、使用定义的类对鸢尾花(iris)进行PCA降维,关于鸢尾花详细信息,请移步

    

 1 import pandas as pd
 2 import numpy as np 
 3 from sklearn.datasets import load_iris 
 4 import matplotlib.pyplot as plt
 5 from sklearn.preprocessing import StandardScaler
 6 import pca_file
 7 import xlwt
 8 
 9 #载入iris数据,展示PCA的使用
10 iris = load_iris()
11 
12 #将鸢尾花数据记录到本地excel中查看
13 f = xlwt.Workbook()  # 创建工作簿
14 sheet1 = f.add_sheet(u'sheet1', cell_overwrite_ok=True)  # 创建sheet
15 [h, l] = iris.data.shape  # h为行数,l为列数
16 for i in range(h):
17     for j in range(l):
18         sheet1.write(i, j, iris.data[i, j])
19 f.save("C:\\Users\\25626\\Desktop\\PCA\\data.xls")
20 print("花卉类型"+str(iris.target_names)+str(iris.target))
21 
22 #将iris数据记录到DataFrame表格
23 df = pd.DataFrame(iris.data,columns = iris.feature_names)
24 print("数据名称"+str(iris.feature_names))
25 df['label'] = iris.target
26 df.columns = ['sepal length','sepal width','petal length','petal width','label']
27 df.label.value_counts()
28 #查看数据
29 df.tail()
30 #查看数据
31 X = df.iloc[:,0:4]
32 y = df.iloc[:,4]
33 print("查看第一个数据:\n",X.iloc[0,0:4])
34 print("查看第一个标签:\n",y.iloc[0])
35 
36 #使用PCA降维
37 model = pca_file.PCA
38 Y = model.fit(X,2)
39 principalDf = pd.DataFrame(np.array(Y),columns = ['principal component1','principal component2'])
40 Df = pd.concat([principalDf,y],axis=1)
41 
42 #画图显示
43 fig = plt.figure(figsize = (5,5,))
44 ax = fig.add_subplot(1,1,1)
45 ax.set_xlabel('Principal Component 1',fontsize = 15)
46 ax.set_ylabel('Principal Component 2',fontsize = 15)
47 ax.set_title("2 component PCA",fontsize = 20)
48 targets = [0,1,2]
49 colors = ['r','g','b']
50 for target,color in zip(targets,colors):
51     indicesToKeep = Df['label'] == target
52     ax.scatter(Df.loc[indicesToKeep,'principal component1'],Df.loc[indicesToKeep,'principal component2'],c = color,s =50)
53 ax.legend(targets)
54 ax.grid()  
55 plt.show()  

    降维后数据如图所示

 

posted @ 2020-06-03 22:44  蛮好不太坏  阅读(156)  评论(0编辑  收藏