随笔分类 - 深度学习
摘要:(一)、什么是Adam算法?Adam(Adaptive momentum)是一种自适应动量的随机优化方法(A method for stochastic optimization),经常作为深度学习中的优化器算法。 (二)、Adam算法如何实现?
阅读全文
摘要:以前在做CV时,数据增强的方法裁剪,模糊,翻转等,学习NLP时对数据增强的方法很少介绍,现将其增强方法整理如下:
阅读全文
摘要:一、下载goole earth 和GetScreen: 试了很多,找了可以使用的上传到百度网盘,链接如下所示: 链接:https://pan.baidu.com/s/1fp-W8u68iRsJ0xcu-pJWhg 提取码:zrsw 使用方法: 1、首先打开Google earth,并将球锁定到要截取
阅读全文
posted @ 2019-05-23 18:18
努力奋斗的阿贝拉
摘要:参考:https://blog.csdn.net/z704630835/article/details/88697165 一、DOTA:A Large-scale Dataset for Object Detection in Aerial Images 数据集介绍:该数据集一共有15种土地利用类型
阅读全文
摘要:https://www.cnblogs.com/gujianhan/p/6030639.html
阅读全文
摘要:YOLO1:https://blog.csdn.net/m0_37192554/article/details/81092514 https://blog.csdn.net/shuiyixin/article/details/82533849 YOLOV2:https://blog.csdn.net
阅读全文
posted @ 2019-04-04 14:43
努力奋斗的阿贝拉
摘要:一、目标检测和目标识别 目标识别(object recognition)是要指明一张图像中包含哪类目标。输入是图像,输出是图像中的目标属于的类别(class probability)。目标检测是识别出图像中的类别外,还要框出目标的具体位置(bounding boxes). 在目标检测时,为定位到目标
阅读全文
摘要:大规模机器学习: 线性回归的梯度下降算法:Batch gradient descent(每次更新使用全部的训练样本) 批量梯度下降算法(Batch gradient descent): 每计算一次梯度会遍历全部的训练样本,如果训练样本的比较多时,内存消耗过大。 随机梯度下降算法: 1、 首先将随机打
阅读全文
摘要:学习算法中的高方差对应过拟合,高偏差对应欠拟合; debug学习系统时: 改善高方差的方法:增加训练集数量、减小特征数量、增大正则系数 改善高偏差的方法:增加特征数量、减小正则系数、增加高阶特征 准确率和召回率如上图所示,衡量效果时使用F系数,如下图 逻辑回归和SVM的选择: n表示特征量的个数;m
阅读全文
摘要:参考:https://blog.csdn.net/t46414704152abc/article/details/79574003 https://blog.csdn.net/chibangyuxun/article/details/53148005 https://blog.csdn.net/li
阅读全文
摘要:梯度更新是要同时更新,如下图所示:θ0和θ1同时更新,而不是更新完一个后再更新另一个。 学习率α过小,梯度下降较慢,训练时间增长。若学习率α过大,梯度下降会越过最低点,难以得到最优的结果,导致难以收敛或发散。 如果参数值已是局部最优,进行梯度下降计算时导数是0,梯度下降不会作任何操作,参数不改变 在
阅读全文
摘要:先从以下几方面入手: ◆从简单并且得到广泛应用的网络开始,如VGG,如果可以的话使用标准的损失函数。 ◆暂时去掉所有的trick,如数据增强(Data Augmentation)和正则化(regularization)。 ◆如果是微调(finetuning)模型,再次检查数据的预处理,保证其和原始网
阅读全文
摘要:转自:https://www.cnblogs.com/gongxijun/p/6117588.html?utm_source=itdadao&utm_medium=referral
阅读全文
摘要:通常用外部api进行卷积的时候,会面临mode选择。 本文清晰展示三种模式的不同之处,其实这三种不同模式是对卷积核移动范围的不同限制。 设 image的大小是7x7,filter的大小是3x3 1,full mode 橙色部分为image, 蓝色部分为filter。full模式的意思是,从filte
阅读全文
摘要:近期利用遥感影像进行路网提取,利用Unet网络进行图像分割 介绍如下: U-net网络非常简单,前半部分作用是特征提取,后半部分是上采样。在一些文献中也把这样的结构叫做编码器-解码器结构。由于此网络整体结构类似于大写的英文字母U,故得名U-net。U-net与其他常见的分割网络有一点非常不同的地方:
阅读全文
摘要:反卷积、上采样、上池化图示理解,如上所示。 目前使用得最多的deconvolution有2种。 方法1:full卷积, 完整的卷积可以使得原来的定义域变大 上图中蓝色为原图像,白色为对应卷积所增加的padding,通常全部为0,绿色是卷积后图片。卷积的滑动是从卷积核右下角与图片左上角重叠开始进行卷积
阅读全文
摘要:转自: https://blog.csdn.net/yuweiming70/article/details/81513742 正则化是用来减小训练集的过拟合,解决过拟合的方法如下图所示: 1、减小特征量的个数,会丢失相关的特征信息 2、选择合适的算法模型 3、正则化:保持特征量的个数不变,减少参数的
阅读全文
摘要:参考: https://zhuanlan.zhihu.com/p/27938792 做法 设,每个batch输入是 (其中每个 都是一个样本, 是batch size) 假如在第一层后加入Batch normalization layer后, 的计算就倍替换为下图所示的那样。 矩阵 先经过 的线性变
阅读全文
摘要:转自: https://zhuanlan.zhihu.com/p/31426458 faster rcnn的基本结构 Faster RCNN其实可以分为4个主要内容: 1 Conv layers Conv layers包含了conv,pooling,relu三种层。以python版本中的VGG16模
阅读全文

浙公网安备 33010602011771号