随笔分类 -  深度学习

1 2 下一页
yolov5
摘要:https://blog.csdn.net/weixin_38842821/article/details/108544609 阅读全文
posted @ 2021-03-12 15:25 Manuel 阅读(70) 评论(0) 推荐(0)
iou Giou Diou Ciou
摘要:https://blog.csdn.net/qq_35914625/article/details/108528789 阅读全文
posted @ 2021-03-11 09:48 Manuel 阅读(72) 评论(0) 推荐(0)
GIOU
摘要:https://blog.csdn.net/WalkingSoul/article/details/101450597 GIoU Loss参考文献:Generalized Intersection over Union: A Metric and A Loss for Bounding Box Re 阅读全文
posted @ 2021-03-08 17:32 Manuel 阅读(518) 评论(0) 推荐(0)
Anchor-Free
摘要:https://blog.csdn.net/Murdock_C/article/details/89681076?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-3.control&di 阅读全文
posted @ 2021-03-04 10:51 Manuel 阅读(60) 评论(0) 推荐(0)
NMS详解
摘要:https://blog.csdn.net/m0_37605642/article/details/98358864 参考博客 物体检测中常用的几个概念迁移学习、IOU、NMS理解 目标定位和检测系列(3):交并比(IOU)和非极大值抑制(NMS)的python实现 一、NMS(非极大抑制)概念 N 阅读全文
posted @ 2021-03-03 17:44 Manuel 阅读(3229) 评论(0) 推荐(0)
矩阵卷积后的尺寸的计算公式
摘要:设: 图片输入大小为:W x W x D1 卷积核尺寸为: F x F 步长为: S 填充为:P 卷积核个数为:K 输出图片大小为:N x N x K N = (W-F+2P)/ S +1 池化层的功能:* 第一,又进行了一次特征提取,所以能减小下一层数据的处理量。* 第二,能够获得更为抽象的信息, 阅读全文
posted @ 2021-03-03 17:06 Manuel 阅读(2795) 评论(0) 推荐(2)
目标检测综述
摘要:基于深度学习的目标检测算法综述 阅读全文
posted @ 2019-08-16 10:51 Manuel 阅读(184) 评论(0) 推荐(0)
cs231n完整笔记整理
摘要:https://zhuanlan.zhihu.com/p/21930884 阅读全文
posted @ 2019-08-04 10:07 Manuel 阅读(277) 评论(0) 推荐(0)
卷积可视化,图像理解,deepdream,风格迁移
摘要:https://www.cnblogs.com/coldyan/p/8403506.html 阅读全文
posted @ 2019-07-25 17:16 Manuel 阅读(171) 评论(0) 推荐(0)
损失函数
摘要:深度学习中常见的损失函数分为两种:分类损失和回归损失 Log loss即交叉熵损失:https://blog.csdn.net/google19890102/article/details/79496256 Focal Loss: 设计理念:网络在学习的时候往往有大量的负样本(背景),这些样本相对容 阅读全文
posted @ 2019-07-18 12:34 Manuel 阅读(196) 评论(0) 推荐(0)
RNN,LSTM
摘要:RNN: Vanilla Neural Network :对单一固定的输入给出单一固定输出 Recurrent Neural Network:对单一固定的输入给出一系列输出(如:可边长序列),例:图片描述 对可变尺寸输入给出单一固定输出,例:语句的情感分析,对视频(时间长度可变)做决策 对可变尺寸输 阅读全文
posted @ 2019-07-10 16:33 Manuel 阅读(252) 评论(0) 推荐(0)
定位、识别;目标检测,FasterRCNN
摘要:定位: 针对分类利用softmax损失函数,针对定位利用L2损失函数(或L1、回归损失等) 人关节点检测 针对连续变量和离散变量需要采用不同种类的损失函数。 识别: 解决方案: 1.利用滑动窗口,框的大小和位置无法确定,目标检测需要巨大的计算量,pass 2.备选区域 利用区域选择网络ROI,将RO 阅读全文
posted @ 2019-07-09 16:48 Manuel 阅读(1059) 评论(0) 推荐(0)
语义分割
摘要:语义分割:将图片的每个像素按照类别区分开,缺点是无法区分同类别实例 语义分割的一些想法: 1.滑动窗口 将每一个小窗口通过cnn分类,缺点是计算量非常大 2.全卷积网络: 利用全是卷积层的网络来训练,通过填充保持图片的大小不变,最后分类得到语义分割后的图像,C为类别数量 在深通道(如64,128,2 阅读全文
posted @ 2019-07-09 16:07 Manuel 阅读(650) 评论(0) 推荐(0)
AlexNet,VGG,GoogleNet,ResNet
摘要:AlexNet: VGGNet: 用3x3的小的卷积核代替大的卷积核,让网络只关注相邻的像素 3x3的感受野与7x7的感受野相同,但是需要更深的网络 这样使得参数更少 大多数内存占用在靠前的卷积层,大部分的参数在后面的全连接层 GoogleNet: Inception模块:设计了一个局部网络拓扑结构 阅读全文
posted @ 2019-06-26 15:54 Manuel 阅读(1088) 评论(0) 推荐(0)
静态图与动态图的优劣
摘要:静态图只建一次,然后不断复用它,容易在图上做优化,图的效率更高 动态图每次使用时建立,不容易优化 静态图可以在磁盘中序列化,可以保存整个网络的结构,可以重载,在部署中很实用 动态图则需要重复之前的代码 动态图相比静态图代码更简洁 在tensorflow静态图中条件和循环需要特定的语法,pytorch 阅读全文
posted @ 2019-06-25 21:21 Manuel 阅读(7815) 评论(3) 推荐(0)
迁移学习
摘要:Transfer Learning 当只有一个小的数据集时,修改最后一层的特征到最后的分类输出之间的全连接层,只需要重新随机初始化这部分矩阵,冻结前面层的权重,相当于只训练一个线性分类器。 当有一个稍微大的数据集时,可以微调整个网络,一般将学习率调低来训练,因为最初的网络参数是在Imagenet上收 阅读全文
posted @ 2019-06-19 10:38 Manuel 阅读(177) 评论(0) 推荐(0)
模型正则化,dropout
摘要:正则化 在模型中加入正则项,防止训练过拟合,使测试集效果提升 Dropout 每次在网络中正向传播时,在每一层随机将一些神经元置零(相当于激活函数置零),一般在全连接层使用,在卷积层一般随机将整个通道置零而不是单个神经元 Dropout 的两种解释: 1.dropout避免了特征之间的相互适应,假如 阅读全文
posted @ 2019-06-19 10:25 Manuel 阅读(905) 评论(0) 推荐(0)
优化器,SGD+Momentum;Adagrad;RMSProp;Adam
摘要:Optimization 随机梯度下降(SGD): 当损失函数在一个方向很敏感在另一个方向不敏感时,会产生上面的问题,红色的点以“Z”字形梯度下降,而不是以最短距离下降;这种情况在高维空间更加普遍。 SGD的另一个问题:损失函数容易卡在局部最优或鞍点(梯度为0)不再更新。在高维空间鞍点更加普遍 当模 阅读全文
posted @ 2019-06-17 17:38 Manuel 阅读(779) 评论(0) 推荐(0)
Batch Normalization批量归一化
摘要:BN的深度理解:https://www.cnblogs.com/guoyaohua/p/8724433.html BN: BN的意义:在激活函数之前将输入归一化到高斯分布,控制到激活函数的敏感区域,避免激活函数的梯度饱和导致梯度消失,增加学习效率 (1)加速收敛(2)控制过拟合,可以少用或不用Dro 阅读全文
posted @ 2019-06-14 16:25 Manuel 阅读(234) 评论(0) 推荐(0)
数据预处理;初始化权重
摘要:数据预处理: 一般用0均值化数据,若所有输入都是正的,则得到权重上的梯度也都是正的,会得到次最优的优化梯度 通过标准差来归一化 初始化权重: 如果以0(或相同的值)为所有权重的初始值,会导致所有的神经元将做同样的事,每个神经元将在输入数据上有相同的操作输出相同的值,得到相同的梯度,参数更新也相同,得 阅读全文
posted @ 2019-06-12 11:35 Manuel 阅读(533) 评论(0) 推荐(0)

1 2 下一页