07 2020 档案

摘要:YOLO-V3余2018年推出,基础框架为Darknet-53. 阅读全文
posted @ 2020-07-31 18:16 要想瘦先吃肉 阅读(274) 评论(0) 推荐(0)
摘要:优点: 更过的feature map可以得到更好的效果 使用图片边界标注框比不适用图片标注框效果更好 缺点: 需要人工砂设置prior box的min_size,max_size和aspect_ratio值。网络中预选框的基础大小和形状需要手工设置。而网络中每一层feature使用的预选框的大小和形 阅读全文
posted @ 2020-07-29 18:01 要想瘦先吃肉 阅读(1175) 评论(0) 推荐(0)
摘要:为了使模型对于各种输入对象大小和形状更加鲁棒,每个训练图像通过以下选项之一随机取样: 使用整个原始图像 采样一个区域,使采样区域和原始图片最小的交并比重叠为0.1,0.3,0.5,0.7或0.9 随机采样一个区域 每个采样区域的大小为原始图像大小的[0.1,1],长宽比在1/2和2之间。如果真是标签 阅读全文
posted @ 2020-07-29 17:08 要想瘦先吃肉 阅读(593) 评论(0) 推荐(0)
摘要:值得注意的是,一般情况下 negative default boxes 数量远远大于positive default boxes 数量,这样训练会导致网络过于重视负样本,查看loos可知。从而loss不稳定。所以ssd在抽样时按照置信度误差(预测背景的概率越小,误差越大)进行降序排序,选出误差较大的 阅读全文
posted @ 2020-07-29 15:48 要想瘦先吃肉 阅读(138) 评论(0) 推荐(0)
摘要:SSD算法的目标函数分为两部分:计算相应的预选框与目标类别的confidence loss以及相应的位置回归。其中N是match到Ground Truth的预选框数量;而α擦书用于调整confidence loss 和location loss 之间的比例,默认α = 1. 分类: 其中i表示第i个 阅读全文
posted @ 2020-07-29 14:22 要想瘦先吃肉 阅读(1487) 评论(0) 推荐(0)
摘要:Two stage:Faster_RCNN two stage 检测算法将检测问题划分为两个阶段,首先产生候选区域(region proposals),然后对候选区域分类(一般还需要对位置精修) 特点是:错误率低,漏识别率也比较低,但速度较慢,不太能满足实时检测场景。 One stage:SSD,Y 阅读全文
posted @ 2020-07-29 10:05 要想瘦先吃肉 阅读(324) 评论(0) 推荐(0)
摘要:自2014年RCNN之后,RBG借鉴了SPP—Net的设计思想,在2015年推出了FastRCNN FastRCNN把bboxregression放进了神经网络的内部,与region分类并成为了一个multitask,实际试验也证明,这两个任务够共享卷积特征,并相互促进。这个结构的优化极大提升了模型 阅读全文
posted @ 2020-07-28 17:38 要想瘦先吃肉 阅读(188) 评论(0) 推荐(0)
摘要:RCNN的进化中SPPNet的作者是何凯明(大佬)R-CNN最大的瓶颈是2000个候选区域都要经过一次CNN,速度非常慢。SPP-Net最大的改进是只需要将原图做一次卷积操作,就可以得到每个候选区域的特征。 金字塔池化层 spp net的图像检测速度大约是RCNN的100倍 阅读全文
posted @ 2020-07-28 17:24 要想瘦先吃肉 阅读(150) 评论(0) 推荐(0)
摘要:RCNN(Regions with CNN features)是RGB在2014年提出的一种目标检测算法,RCNN是将CNN方法应用道目标检测问题上的一个里程碑,借助CNN良好的特征提取和分类性能,通过RegionProposal方法实现目标检测。 前面我们提到的滑动窗口法可以得到目标所在区域,但会 阅读全文
posted @ 2020-07-27 18:53 要想瘦先吃肉 阅读(667) 评论(0) 推荐(0)
摘要:选出置信度最高的候选框,如果当前最高分的候选框重叠面积IoU(交集/并集)大于一定阈值,就将其删除。 当存在多个检测目标时,先选取置信度最大的候选框b1,然后根据IoU阈值来去除b1候选框周围的候选框。然后选取置信度第二大的候选框b2,然后去除b2候选框周围的候选框。 阅读全文
posted @ 2020-07-27 18:11 要想瘦先吃肉 阅读(855) 评论(0) 推荐(0)
摘要:作用: 1)增加非线性 1*1卷积核的卷积过程相当于全连接层的计算过程,并且加入了非线性激活函数,从而增加网络的非线性,使得网络可以表达更复杂的特征。 2)特征降维(主要作用) 通过控制卷积核的数量达到通道数大小的缩放。特征姜维带来的好处是可以减少参数和减少计算量 阅读全文
posted @ 2020-07-27 09:53 要想瘦先吃肉 阅读(472) 评论(0) 推荐(0)
摘要:作用:存取模型 方法: 读取模型: 1 checkpoint_save_path = './checkpoint/Baseline.ckpt' 2 if os.path.exists(checkpoint_save_path+'.index'): 3 print('load exists model 阅读全文
posted @ 2020-07-24 14:20 要想瘦先吃肉 阅读(158) 评论(0) 推荐(0)
摘要:有时候我们希望卷积计算保持输入特征图的尺寸保持不变(一般为3*3卷积核且步长为1) 阅读全文
posted @ 2020-07-23 18:06 要想瘦先吃肉 阅读(234) 评论(0) 推荐(0)
摘要:定义:感受野是指输出特征图中的1个像素点映射到原始输入图片区域的大小 所以两层3*3的卷积核和1层5*5的卷积核的特征提取能力是一样的,该如何选择?设输入特征宽高为x,步长为 考虑两个方面: 1)带训练参数量 两层3*3卷积核:9+9=18 一层5*5卷积核:25 2)计算量 两层3*3卷积核:第一 阅读全文
posted @ 2020-07-23 17:59 要想瘦先吃肉 阅读(178) 评论(0) 推荐(0)
摘要:全连接NN:每个神经元与前后相邻的每一个神经元都有连接关系,输入的是特征,输出的为预测结果。 参数个数: 共101770个参数 而在实际的项目过程中输入神经网络的是具有更高分辨率的彩色图片,使得输入神经网络的特征数过多,随着隐藏层层数的增加,网络规模过大,待优化参数过多很容易使模型过拟合,为了减少带 阅读全文
posted @ 2020-07-23 17:05 要想瘦先吃肉 阅读(1322) 评论(0) 推荐(0)
摘要:作用:神经网络对0附近的数据更敏感,但是随着网络层数的增加,特征数据会出现偏离0均值的情况,标准化可以使数据符合以0位均值,1为标准差的正太分布,把偏移的特征数据重新拉回0附近。 方法: 标准化:使数据符合0为均值,1为标准差的分布。 批标准差:对一小批数据(batch),做标准化处理。 批标准化后 阅读全文
posted @ 2020-07-23 14:43 要想瘦先吃肉 阅读(772) 评论(0) 推荐(0)
摘要:卷积神经网络就是借助卷积核对输入特征进行特征提取,再把提取的特征送入全连接网络进行识预测。 卷积神经网络主要模块: 卷积是什么? 卷积是特征提取器,就是CBAPD(上图,下代码) model = tf.keras.models.Sequential( Conv2D(filter=6, kernel_ 阅读全文
posted @ 2020-07-23 11:42 要想瘦先吃肉 阅读(149) 评论(0) 推荐(0)
摘要:作用:为了缓解神经网络过拟合 方法:在神经网络训练时,将一部分神经元按照一定的概率从神经网络中暂时舍弃。神经网络使用时,被舍弃的神经元恢复链接。 TF2描述: tf.keras.layers.Dropout(舍弃的概率) 实例: 1 model = tf.keras.models.Sequentia 阅读全文
posted @ 2020-07-23 11:19 要想瘦先吃肉 阅读(197) 评论(0) 推荐(0)
摘要:作用:池化操作用于减少卷积神经网络中特征的数据量。 方法: 主要包含最大池化和均值池化。 1)最大池化 可以提取图片纹理 2)均值池化 保留背景特征 TF2描述: 1)最大池化 tf.keras.layers.MaxPool2D( pool_size = 池化核尺寸,# 写一个元组(核高,核宽)高宽 阅读全文
posted @ 2020-07-23 10:43 要想瘦先吃肉 阅读(881) 评论(0) 推荐(0)
摘要:https://blog.csdn.net/q1148013214/article/details/81172446?utm_medium=distribute.pc_relevant_t0.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonec 阅读全文
posted @ 2020-07-10 16:23 要想瘦先吃肉 阅读(287) 评论(0) 推荐(0)
摘要:1.2神经网络发展史 我们将神经网络的发展历程大致分为浅层神经网络阶段和深度学习阶段,以2006年为分割点。2006年以前,深度学弟以神经网络连接主义名义发展,经历了两次兴盛和两次寒冬;2006年,Groffrey Hinton首次将深层神经网络命名为深度学习,自此开启了深度学习的第三次复兴之路。 阅读全文
posted @ 2020-07-06 16:37 要想瘦先吃肉 阅读(311) 评论(0) 推荐(0)
摘要:1.1.3神经网络与深度学习 神经网络算法是一类基于神经网络从数据中学习的算法,它仍然属于机器学习的范畴。受限于计算能力和数据量,早起的神经网络层数较浅,一般在1-4层左右,网络表达能力有限。随着计算能力的提升和大数据时代的到来,高度并行化的GPU和海量数据让大规模神经网络的训练称为可能。 2006 阅读全文
posted @ 2020-07-06 16:21 要想瘦先吃肉 阅读(264) 评论(0) 推荐(0)
摘要:1.1.2 机器学习 机器学习分为两部分: 有监督学习(Surpervised Learning) 无监督学习(Unsupervised Learning) 强化学习(Reinforcement Learning,简称RL) 如下图所示: 有监督学习 有监督学习的数据集包含了样本x与样本label 阅读全文
posted @ 2020-07-06 15:35 要想瘦先吃肉 阅读(242) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2020-07-06 14:57 要想瘦先吃肉 阅读(98) 评论(0) 推荐(0)