2020年6月12日

R-CNN学习笔记

摘要: 1.总体框架 R-CNN目标检测模型总体上分为三大模块:1.区域提议,2.CNN特征提取,3.SVM判别。 区域提议:也可以理解为候选框提取。通过某种方法从原始输入图像中提取出与类别无关的大约2k个候选框。 CNN特征提取:经过第1步提取到2k个候选框之后,分别利用CNN对这些候选框进行特征提取。 阅读全文

posted @ 2020-06-12 04:24 h_z_cong 阅读(126) 评论(0) 推荐(0) 编辑

2019年2月1日

吴恩达深度学习笔记(十二)—— Batch Normalization

摘要: 主要内容: 一、Normalizing activations in a network 二、Fitting Batch Norm in a neural network 三、Why does Batch Norm work? 四、Batch Norm at test time 一、Normaliz 阅读全文

posted @ 2019-02-01 15:34 h_z_cong 阅读(434) 评论(0) 推荐(0) 编辑

2019年1月10日

吴恩达深度学习笔记(十一)—— dropout正则化

摘要: 主要内容: 一、dropout正则化的思想 二、dropout算法流程 三、dropout的优缺点 一、dropout正则化的思想 在神经网络中,dropout是一种“玄学”的正则化方法,以减少过拟合的现象。它的主要思想就是:在训练神经网络的每一轮迭代中,随机地关闭一些神经元,以此降低神经网络的复杂 阅读全文

posted @ 2019-01-10 22:17 h_z_cong 阅读(1605) 评论(0) 推荐(0) 编辑

2018年12月7日

《统计学习方法》笔记第二章 —— 感知机

摘要: 主要内容: 一、感知机模型 二、感知机学习策略(线性可分) 三、感知机学习算法 (疑问:对偶形式比原始形式更优吗?但为何从”判断误分类点“这一步骤对比,对偶形式的时间复杂度似乎更高呢?) 一、感知机模型 1.所谓感知机,其实就是一个在n维空间内的超平面(n-1维),这个超平面将整个空间分为两部分。 阅读全文

posted @ 2018-12-07 21:14 h_z_cong 阅读(324) 评论(0) 推荐(0) 编辑

2018年12月5日

《机器学习基石》第一周 —— When Can Machine Learn?

摘要: (注:由于之前进行了吴恩达机器学习课程的学习,其中有部分内容与机器学习基石的内容重叠,所以以下该系列的笔记只记录新的知识) 《机器学习基石》课程围绕着下面这四个问题而展开: 主要内容: 一、什么时候适合用机器学习? 二、该课程所采用的一套符号表示 三、机器学习的流程 四、感知机算法 五、学习的类型 阅读全文

posted @ 2018-12-05 00:38 h_z_cong 阅读(166) 评论(0) 推荐(0) 编辑

2018年10月8日

吴恩达深度学习笔记(十) —— 神经风格迁移

摘要: 主要内容: 一.神经风格迁移简介 二.计算content cost 三.计算style cost 一.神经风格迁移简介 1.神经风格迁移(Neural Style Transfer),简称为NST,就是以一张图为内容基础,以另一张图为风格基础,生成一张新的图: 2.NST使用一张已经训练好的神经网络 阅读全文

posted @ 2018-10-08 21:07 h_z_cong 阅读(1233) 评论(0) 推荐(0) 编辑

吴恩达深度学习笔记(九) —— FaceNet

摘要: 主要内容: 一.FaceNet人脸识别简介 二.使用神经网络对人脸进行编码 三.代价函数triple loss 四.人脸库 五.人脸认证与人脸识别 一.FaceNet简介 1.FaceNet是一个深层神经网络,它将人脸编码成一个含有128个数的向量。通过比较两张人脸编码后的向量,可以判定两张人脸是否 阅读全文

posted @ 2018-10-08 19:50 h_z_cong 阅读(1158) 评论(0) 推荐(0) 编辑

2018年10月7日

吴恩达深度学习笔记(八) —— ResNets残差网络

摘要: (很好的博客:残差网络ResNet笔记) 主要内容: 一.深层神经网络的优点和缺陷 二.残差网络的引入 三.残差网络的可行性 四.identity block 和 convolutional block 一.深层神经网络的优点和缺陷 1.深度神经网络很大的一个优点就是能够表示一个复杂的功能。网络的层 阅读全文

posted @ 2018-10-07 22:12 h_z_cong 阅读(3974) 评论(0) 推荐(0) 编辑

吴恩达深度学习笔记(七) —— Batch Normalization

摘要: 主要内容: 一.Batch Norm简介 二.归一化网络的激活函数 三.Batch Norm拟合进神经网络 四.测试时的Batch Norm 一.Batch Norm简介 1.在机器学习中,我们一般会对输入数据进行归一化处理,使得各个特征的数值规模处于同一个量级,有助于加速梯度下降的收敛过程。 2. 阅读全文

posted @ 2018-10-07 21:01 h_z_cong 阅读(1393) 评论(0) 推荐(0) 编辑

2018年10月4日

吴恩达深度学习笔记(六) —— 卷积神经网络

摘要: 主要内容: 一.卷积神经网络简介 二.卷积神经网络之前向传播简介 三.padding填充 四.stride步长 五.信道(channel)个数与过滤器(filter)个数的区别 六.卷积的一步 七.一次完整的卷积 八.池化层 九.1 * 1 filter 一.卷积神经网络介绍 1.何为卷积神经网络? 阅读全文

posted @ 2018-10-04 21:14 h_z_cong 阅读(386) 评论(0) 推荐(0) 编辑

2018年10月3日

吴恩达深度学习笔记(五) —— 优化算法:Mini-Batch GD、Momentum、RMSprop、Adam、学习率衰减

摘要: 主要内容: 一.Mini-Batch Gradient descent 二.Momentum 四.RMSprop 五.Adam 六.优化算法性能比较 七.学习率衰减 一.Mini-Batch Gradient descent 1.一般地,有三种梯度下降算法: 1)(Batch )Gradient D 阅读全文

posted @ 2018-10-03 20:50 h_z_cong 阅读(1589) 评论(0) 推荐(0) 编辑

2018年10月2日

吴恩达深度学习笔记(四)—— 正则化

摘要: 有关正则化的详细内容: 吴恩达机器学习笔记(三) —— Regularization正则化 《机器学习实战》学习笔记第五章 —— Logistic回归 主要内容: 一.无正则化 二.L2正则化 三.Dropout正则化 一.无正则化 深度学习的训练模型如下(可接受“无正则化”、“L2正则化”、“Dr 阅读全文

posted @ 2018-10-02 16:03 h_z_cong 阅读(341) 评论(0) 推荐(0) 编辑

吴恩达深度学习笔记(三)—— 初始化

摘要: 主要内容: 一.初始化问题 二.全0初始化 三.随机初始化 四.“He initialization”初始化 一.初始化问题 1.在深度学习中,参数的初始化对模型有着重要的影响,而需要初始化的参数有两类: 参数b的初始化对模型的影响较小,所以一般都是直接初始化为0,所以下面讨论的都是对参数W的初始化 阅读全文

posted @ 2018-10-02 16:00 h_z_cong 阅读(451) 评论(0) 推荐(0) 编辑

吴恩达深度学习笔记(二)—— 深层神经网络的训练过程

摘要: 主要内容: 一.初始化参数 二.前向传播 三.计算代价函数 四.反向传播 五.更新参数(梯度下降) 一.初始化参数 1.由于将参数W初始化为0会导致神经网络失效,因而需要对W进行随机初始化。一般的做法是用np.random.np()生成一个高斯分布的数,然后再乘上一个很小的数比如0.01,以限制它的 阅读全文

posted @ 2018-10-02 09:36 h_z_cong 阅读(548) 评论(0) 推荐(0) 编辑

2018年9月22日

吴恩达深度学习笔记(一) —— 神经网络简介

摘要: 相关博客: 吴恩达机器学习笔记(四) —— BP神经网络 (里面出现的内容,下面将不再重复) 主要内容: 一.单个样本向量化 二.多个样本向量化 三.激活函数及其导数 四.随机初始化 五.深层神经网络的前向与反向传播 六.参数和超参数 一.单个样本向量化 如下神经网络,对于第一层的神经元,每个神经元 阅读全文

posted @ 2018-09-22 21:03 h_z_cong 阅读(352) 评论(0) 推荐(0) 编辑

导航