会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
我们都是大好青年
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
7
8
9
···
25
下一页
2020年2月27日
C++中c_str()的用法以及.data()
摘要: 这两个函数经常用到,总是记不住,记下来,方便翻阅 c_str()和data():生成一个const char*指针,指向一个临时数组。 c_str()函数返回一个指向正规C字符串的指针,内容与string串相同。 C++中c_str()主要用法就是为了与C语言兼容,在C语言中没有string类型,故
阅读全文
posted @ 2020-02-27 17:21 我们都是大好青年
阅读(3453)
评论(0)
推荐(0)
2020年2月26日
YOLOV1原理、优点及不足
摘要: 物体检测的两个步骤可以概括为: (1)检测目标位置(生成矩形框) (2)对目标物体进行分类 物体检测的主流算法框架大致分为one-stage与two-stage。two-stage算法代表的有R-CNN系列,one-stage算法代表的有YOLO系列。按笔者理解,two-stage算法将步骤一与步骤
阅读全文
posted @ 2020-02-26 20:54 我们都是大好青年
阅读(4512)
评论(0)
推荐(0)
C++ ZMQ pub-sub模式传输速率影响因素探究
摘要: zmq pub-sub模式的使用可在网上作参考。 这里记录一下这次使用过程中遇到的问题: 一、zmq的传输速率 (1)会受到网速的限制,近似与网速越好,传输速率越高 在公司测试,大家网线都连路由,但是每个人的网速很有可能不同。这就会导致,在同样的平台,同样的代码,不同的位置(即不同的网线)耗时却不同
阅读全文
posted @ 2020-02-26 18:38 我们都是大好青年
阅读(1379)
评论(0)
推荐(0)
2020年2月25日
YOLOV2相对于YOLOV1的改进
摘要: 1、YOLOV1有两个缺点: (1)定位不够准确。 (2)和基于region proposal类的方法相比找回率更低。 2、Batch Normalization YOLOV1中也有BN,但是YOLOV2在加入BN后把dropout去掉了,实验证明可以提高2%的mAP. 3、High Resolut
阅读全文
posted @ 2020-02-25 16:16 我们都是大好青年
阅读(2601)
评论(0)
推荐(0)
2020年2月24日
在训练过程中loss出现NaN的原因以及可以采取的方法
摘要: NaN的意思是not a number,不是一个数字。 1、梯度爆炸 一般loss的相关量是w——> w的相关量(更新方式)是梯度——>和梯度有关 原因:在学习过程中,梯度变得非常大,使得学习的过程偏离了正常的轨迹。 症状:观察输出日志(runtime log)中每次迭代的loss值,你会发现los
阅读全文
posted @ 2020-02-24 18:57 我们都是大好青年
阅读(9013)
评论(0)
推荐(1)
激活函数的饱和,左饱和、右饱和、软饱和、硬饱和、非饱和
摘要:
阅读全文
posted @ 2020-02-24 10:10 我们都是大好青年
阅读(478)
评论(0)
推荐(0)
2020年2月23日
出现梯度消失和梯度爆炸的原因及解决方案
摘要: 梯度消失和梯度爆炸其实是一种情况:均是在神经网络中,当前面隐藏层的学习速率低于后面隐藏层的学习速率,即随着隐藏层数目的增加,分类准确率反而下降了。 梯度消失产生的原因: (1)隐藏层的层数过多; (2)采用了不合适的激活函数(更容易产生梯度消失,但是也有可能产生梯度爆炸) 梯度爆炸产生的原因: (1
阅读全文
posted @ 2020-02-23 21:08 我们都是大好青年
阅读(4750)
评论(0)
推荐(0)
2020年2月22日
Batch Normalization 原理
摘要: 抽空手写了一遍:
阅读全文
posted @ 2020-02-22 12:25 我们都是大好青年
阅读(175)
评论(0)
推荐(0)
2020年2月20日
几种激活函数的对比(二)
摘要: (4)Leaky ReLU ReLU是将所有的负值设置为0,造成神经元节点死亡的情况。相反,Leaky ReLU是给所有负值赋予一个非零的斜率。 优点: (1)神经元不会出现死亡的情况。 (2)对于所有的输入,不管是大于等于0还是小于0,神经元不会饱和 (3)由于Leaky ReLU线性、非饱和的形
阅读全文
posted @ 2020-02-20 20:46 我们都是大好青年
阅读(629)
评论(0)
推荐(0)
几种激活函数对比(一)
摘要: sigmoid和tanh是“饱和激活函数”,而ReLU及其变体则是“非饱和激活函数”。使用“非饱和激活函数”的优势在于两点:(1)“非饱和激活函数”能解决所谓的“梯度消失”问题。(2)能加快收敛速度。 sigmoid将实值输出压缩在[0,1]范围内;tanh函数将实值输出压缩在[-1, 1]的范围。
阅读全文
posted @ 2020-02-20 20:37 我们都是大好青年
阅读(1720)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
7
8
9
···
25
下一页
公告