随笔分类 - 000 —— 深度学习

R-CNN学习笔记
摘要:1.总体框架 R-CNN目标检测模型总体上分为三大模块:1.区域提议,2.CNN特征提取,3.SVM判别。 区域提议:也可以理解为候选框提取。通过某种方法从原始输入图像中提取出与类别无关的大约2k个候选框。 CNN特征提取:经过第1步提取到2k个候选框之后,分别利用CNN对这些候选框进行特征提取。 阅读全文

posted @ 2020-06-12 04:24 h_z_cong 阅读(8) 评论(0) 推荐(0) 编辑

吴恩达深度学习笔记(十二)—— Batch Normalization
摘要:主要内容: 一、Normalizing activations in a network 二、Fitting Batch Norm in a neural network 三、Why does Batch Norm work? 四、Batch Norm at test time 一、Normaliz 阅读全文

posted @ 2019-02-01 15:34 h_z_cong 阅读(121) 评论(0) 推荐(0) 编辑

吴恩达深度学习笔记(十一)—— dropout正则化
摘要:主要内容: 一、dropout正则化的思想 二、dropout算法流程 三、dropout的优缺点 一、dropout正则化的思想 在神经网络中,dropout是一种“玄学”的正则化方法,以减少过拟合的现象。它的主要思想就是:在训练神经网络的每一轮迭代中,随机地关闭一些神经元,以此降低神经网络的复杂 阅读全文

posted @ 2019-01-10 22:17 h_z_cong 阅读(855) 评论(0) 推荐(0) 编辑

吴恩达深度学习笔记(十) —— 神经风格迁移
摘要:主要内容: 一.神经风格迁移简介 二.计算content cost 三.计算style cost 一.神经风格迁移简介 1.神经风格迁移(Neural Style Transfer),简称为NST,就是以一张图为内容基础,以另一张图为风格基础,生成一张新的图: 2.NST使用一张已经训练好的神经网络 阅读全文

posted @ 2018-10-08 21:07 h_z_cong 阅读(522) 评论(0) 推荐(0) 编辑

吴恩达深度学习笔记(九) —— FaceNet
摘要:主要内容: 一.FaceNet人脸识别简介 二.使用神经网络对人脸进行编码 三.代价函数triple loss 四.人脸库 五.人脸认证与人脸识别 一.FaceNet简介 1.FaceNet是一个深层神经网络,它将人脸编码成一个含有128个数的向量。通过比较两张人脸编码后的向量,可以判定两张人脸是否 阅读全文

posted @ 2018-10-08 19:50 h_z_cong 阅读(196) 评论(0) 推荐(0) 编辑

吴恩达深度学习笔记(八) —— ResNets残差网络
摘要:(很好的博客:残差网络ResNet笔记) 主要内容: 一.深层神经网络的优点和缺陷 二.残差网络的引入 三.残差网络的可行性 四.identity block 和 convolutional block 一.深层神经网络的优点和缺陷 1.深度神经网络很大的一个优点就是能够表示一个复杂的功能。网络的层 阅读全文

posted @ 2018-10-07 22:12 h_z_cong 阅读(1231) 评论(0) 推荐(0) 编辑

吴恩达深度学习笔记(七) —— Batch Normalization
摘要:主要内容: 一.Batch Norm简介 二.归一化网络的激活函数 三.Batch Norm拟合进神经网络 四.测试时的Batch Norm 一.Batch Norm简介 1.在机器学习中,我们一般会对输入数据进行归一化处理,使得各个特征的数值规模处于同一个量级,有助于加速梯度下降的收敛过程。 2. 阅读全文

posted @ 2018-10-07 21:01 h_z_cong 阅读(873) 评论(0) 推荐(0) 编辑

吴恩达深度学习笔记(六) —— 卷积神经网络
摘要:主要内容: 一.卷积神经网络简介 二.卷积神经网络之前向传播简介 三.padding填充 四.stride步长 五.信道(channel)个数与过滤器(filter)个数的区别 六.卷积的一步 七.一次完整的卷积 八.池化层 九.1 * 1 filter 一.卷积神经网络介绍 1.何为卷积神经网络? 阅读全文

posted @ 2018-10-04 21:14 h_z_cong 阅读(131) 评论(0) 推荐(0) 编辑

吴恩达深度学习笔记(五) —— 优化算法:Mini-Batch GD、Momentum、RMSprop、Adam、学习率衰减
摘要:主要内容: 一.Mini-Batch Gradient descent 二.Momentum 四.RMSprop 五.Adam 六.优化算法性能比较 七.学习率衰减 一.Mini-Batch Gradient descent 1.一般地,有三种梯度下降算法: 1)(Batch )Gradient D 阅读全文

posted @ 2018-10-03 20:50 h_z_cong 阅读(296) 评论(0) 推荐(0) 编辑

吴恩达深度学习笔记(四)—— 正则化
摘要:有关正则化的详细内容: 吴恩达机器学习笔记(三) —— Regularization正则化 《机器学习实战》学习笔记第五章 —— Logistic回归 主要内容: 一.无正则化 二.L2正则化 三.Dropout正则化 一.无正则化 深度学习的训练模型如下(可接受“无正则化”、“L2正则化”、“Dr 阅读全文

posted @ 2018-10-02 16:03 h_z_cong 阅读(84) 评论(0) 推荐(0) 编辑

吴恩达深度学习笔记(三)—— 初始化
摘要:主要内容: 一.初始化问题 二.全0初始化 三.随机初始化 四.“He initialization”初始化 一.初始化问题 1.在深度学习中,参数的初始化对模型有着重要的影响,而需要初始化的参数有两类: 参数b的初始化对模型的影响较小,所以一般都是直接初始化为0,所以下面讨论的都是对参数W的初始化 阅读全文

posted @ 2018-10-02 16:00 h_z_cong 阅读(100) 评论(0) 推荐(0) 编辑

吴恩达深度学习笔记(二)—— 深层神经网络的训练过程
摘要:主要内容: 一.初始化参数 二.前向传播 三.计算代价函数 四.反向传播 五.更新参数(梯度下降) 一.初始化参数 1.由于将参数W初始化为0会导致神经网络失效,因而需要对W进行随机初始化。一般的做法是用np.random.np()生成一个高斯分布的数,然后再乘上一个很小的数比如0.01,以限制它的 阅读全文

posted @ 2018-10-02 09:36 h_z_cong 阅读(103) 评论(0) 推荐(0) 编辑

吴恩达深度学习笔记(一) —— 神经网络简介
摘要:相关博客: 吴恩达机器学习笔记(四) —— BP神经网络 (里面出现的内容,下面将不再重复) 主要内容: 一.单个样本向量化 二.多个样本向量化 三.激活函数及其导数 四.随机初始化 五.深层神经网络的前向与反向传播 六.参数和超参数 一.单个样本向量化 如下神经网络,对于第一层的神经元,每个神经元 阅读全文

posted @ 2018-09-22 21:03 h_z_cong 阅读(120) 评论(0) 推荐(0) 编辑

导航

统计