上一页 1 2 3 4 5 6 7 8 9 ··· 25 下一页
摘要: 这两个函数经常用到,总是记不住,记下来,方便翻阅 c_str()和data():生成一个const char*指针,指向一个临时数组。 c_str()函数返回一个指向正规C字符串的指针,内容与string串相同。 C++中c_str()主要用法就是为了与C语言兼容,在C语言中没有string类型,故 阅读全文
posted @ 2020-02-27 17:21 我们都是大好青年 阅读(3188) 评论(0) 推荐(0) 编辑
摘要: 物体检测的两个步骤可以概括为: (1)检测目标位置(生成矩形框) (2)对目标物体进行分类 物体检测的主流算法框架大致分为one-stage与two-stage。two-stage算法代表的有R-CNN系列,one-stage算法代表的有YOLO系列。按笔者理解,two-stage算法将步骤一与步骤 阅读全文
posted @ 2020-02-26 20:54 我们都是大好青年 阅读(4045) 评论(0) 推荐(0) 编辑
摘要: zmq pub-sub模式的使用可在网上作参考。 这里记录一下这次使用过程中遇到的问题: 一、zmq的传输速率 (1)会受到网速的限制,近似与网速越好,传输速率越高 在公司测试,大家网线都连路由,但是每个人的网速很有可能不同。这就会导致,在同样的平台,同样的代码,不同的位置(即不同的网线)耗时却不同 阅读全文
posted @ 2020-02-26 18:38 我们都是大好青年 阅读(1194) 评论(0) 推荐(0) 编辑
摘要: 1、YOLOV1有两个缺点: (1)定位不够准确。 (2)和基于region proposal类的方法相比找回率更低。 2、Batch Normalization YOLOV1中也有BN,但是YOLOV2在加入BN后把dropout去掉了,实验证明可以提高2%的mAP. 3、High Resolut 阅读全文
posted @ 2020-02-25 16:16 我们都是大好青年 阅读(2377) 评论(0) 推荐(0) 编辑
摘要: NaN的意思是not a number,不是一个数字。 1、梯度爆炸 一般loss的相关量是w——> w的相关量(更新方式)是梯度——>和梯度有关 原因:在学习过程中,梯度变得非常大,使得学习的过程偏离了正常的轨迹。 症状:观察输出日志(runtime log)中每次迭代的loss值,你会发现los 阅读全文
posted @ 2020-02-24 18:57 我们都是大好青年 阅读(6873) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-02-24 10:10 我们都是大好青年 阅读(449) 评论(0) 推荐(0) 编辑
摘要: 梯度消失和梯度爆炸其实是一种情况:均是在神经网络中,当前面隐藏层的学习速率低于后面隐藏层的学习速率,即随着隐藏层数目的增加,分类准确率反而下降了。 梯度消失产生的原因: (1)隐藏层的层数过多; (2)采用了不合适的激活函数(更容易产生梯度消失,但是也有可能产生梯度爆炸) 梯度爆炸产生的原因: (1 阅读全文
posted @ 2020-02-23 21:08 我们都是大好青年 阅读(4423) 评论(0) 推荐(0) 编辑
摘要: 抽空手写了一遍: 阅读全文
posted @ 2020-02-22 12:25 我们都是大好青年 阅读(161) 评论(0) 推荐(0) 编辑
摘要: (4)Leaky ReLU ReLU是将所有的负值设置为0,造成神经元节点死亡的情况。相反,Leaky ReLU是给所有负值赋予一个非零的斜率。 优点: (1)神经元不会出现死亡的情况。 (2)对于所有的输入,不管是大于等于0还是小于0,神经元不会饱和 (3)由于Leaky ReLU线性、非饱和的形 阅读全文
posted @ 2020-02-20 20:46 我们都是大好青年 阅读(482) 评论(0) 推荐(0) 编辑
摘要: sigmoid和tanh是“饱和激活函数”,而ReLU及其变体则是“非饱和激活函数”。使用“非饱和激活函数”的优势在于两点:(1)“非饱和激活函数”能解决所谓的“梯度消失”问题。(2)能加快收敛速度。 sigmoid将实值输出压缩在[0,1]范围内;tanh函数将实值输出压缩在[-1, 1]的范围。 阅读全文
posted @ 2020-02-20 20:37 我们都是大好青年 阅读(1576) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 ··· 25 下一页