08 2020 档案

摘要:谱聚类是从图论中演化出来的算法,它将聚类问题转换成一个无向加权图的多路划分问题。主要思想是把所有数据点看做是一个无向加权图 G = ( V,E ) 的顶点 V ,E 表示两点间的权重,数据点之间的相似度越高权重值越大。然后根据划分准则对所有数据点组成的图进行切图,使切图后不同的子图间的边权重和尽可能 阅读全文
posted @ 2020-08-26 23:00 sun-a 阅读(5080) 评论(0) 推荐(0)
摘要:主成分分析 (Principal Component Analysis,PCA) 是一种常用的无监督学习方法,这一方法利用正交变换把由线性相关变量表示的观测数据转换为少数几个由线性无关变量表示的数据,线性无关的变量称为主成分。 1 PCA 基本想法 主成分分析中,首先对给定数据进行中心化,使得数据每 阅读全文
posted @ 2020-08-25 15:52 sun-a 阅读(2972) 评论(0) 推荐(0)
摘要:奇异值分解 (Singular Value Decomposition,SVD) 是一种矩阵因子分解方法,是线性代数的概念。应用于数据降维、推荐系统和自然语言处理等领域,在机器学习中被广泛适用。下面主要介绍 SVD 的定义与性质、计算过程、几何解释。 1 特征值分解 这里先回顾一下特征值分解,它与 阅读全文
posted @ 2020-08-23 16:34 sun-a 阅读(15229) 评论(1) 推荐(2)
摘要:1 基本定义 设 A 为 n 阶方阵,若存在数 λ 和非零向量 x,使得: 则称 λ 是 A 的一个特征值,x 为 A 的对应于特征值 λ 的特征向量。 先有一个直观的印象:可以把矩阵看做是运动,特征值就是运动的速度,特征向量就是运动的方向。 注意,由于矩阵是数学概念,非常抽象,所以上面所谓的运动、 阅读全文
posted @ 2020-08-21 18:17 sun-a 阅读(4720) 评论(0) 推荐(0)
摘要:如果学过《线性代数》,那么你应该对矩阵乘法计算规则有所了解,但为什么要这样计算呢?矩阵乘法有什么用呢?下面以理解矩阵乘法为目的来介绍。 1 高斯消元法 首先,矩阵的本质其实就是线性方程组,而解线性方程组的通用方法就是高斯消元法。 1.1 高斯消元法的思路 给出一个简单的例子,需要求解以下线性方程组: 阅读全文
posted @ 2020-08-20 23:20 sun-a 阅读(2540) 评论(0) 推荐(0)
摘要:关于 CNN 基础理论可见:卷积神经网络 TensorFlow2.0 快速搭建神经网络:tf.keras 下面主要介绍:1.搭建卷积神经网络的主要模块:卷积、批标准化、激活、池化、全连接; 2.经典卷积网络的搭建:LeNet、AlexNet、VGGNet、InceptionNet、ResNet。 1 阅读全文
posted @ 2020-08-04 16:25 sun-a 阅读(7814) 评论(0) 推荐(1)
摘要:以下内容主要用于完善上节六步法搭建神经网络的功能, import train, test <数据增强> model = tf.keras.models.Sequential model.compile model.fit <断点续训> model.summary <参数提取,acc/loss 可视化 阅读全文
posted @ 2020-08-02 23:32 sun-a 阅读(1100) 评论(0) 推荐(0)
摘要:tf.keras 是 TensorFlow2 引入的高度封装框架,可以快速搭建神经网络模型。下面介绍一些常用API,更多内容可以参考官方文档:tensorflow 1 tf.keras 搭建神经网络六步法 import train, test model = tf.keras.models.Sequ 阅读全文
posted @ 2020-08-01 22:37 sun-a 阅读(3875) 评论(0) 推荐(0)