• 博客园logo
  • 会员
  • 周边
  • 新闻
  • 博问
  • 闪存
  • 众包
  • 赞助商
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
 






弥漫的幻雪的博客

 
 

Powered by 博客园
博客园 | 首页 | 新随笔 | 联系 | 订阅 订阅 | 管理
上一页 1 2 3 4 5 下一页

2018年5月9日

BOW词袋模型
摘要: 忽略掉文本的语法和语序等要素,将其仅仅看作是若干个词汇的集合,文档中每个单词的出现都是独立的。 1:Bob likes to play basketball, Jim likes too. 2:Bob also likes to play football games. 基于这两个文本文档,构造一个 阅读全文
posted @ 2018-05-09 17:22 弥漫的幻雪 阅读(165) 评论(0) 推荐(0)
 

2018年5月7日

DeepLab----CRF作为图像分割后端
摘要: todo 阅读全文
posted @ 2018-05-07 19:27 弥漫的幻雪 阅读(2845) 评论(1) 推荐(0)
 
FCN----上采样
摘要: 原文叫Deconvolution,成为反卷积,但反卷积原意是卷积的逆运算,有人指出应该叫transposed convolution,即转置卷积 kernel size = 3, stride = 1的反卷积,input是2×2, output是4×4,虚线表示padding kernel size 阅读全文
posted @ 2018-05-07 18:49 弥漫的幻雪 阅读(1101) 评论(0) 推荐(0)
 

2018年5月5日

FasterRCNN----交替训练
摘要: 交替训练Alternating training 第一步,我们训练RPN,该网络用ImageNet预训练的模型初始化,并端到端微调; 第二步,我们利用第一步的RPN生成的候选框,由Fast R-CNN训练一个单独的检测网络,这个检测网络同样是由ImageNet预训练的模型初始化的,这时候两个网络还没 阅读全文
posted @ 2018-05-05 20:44 弥漫的幻雪 阅读(640) 评论(0) 推荐(0)
 
FasterRCNN----ROI pooling
摘要: ROI pooling是为了解决,RPN给提供的候选框形状大小不一致的问题。 阅读全文
posted @ 2018-05-05 20:37 弥漫的幻雪 阅读(409) 评论(0) 推荐(0)
 
FasterRCNN----RPN代价函数
摘要: 此代价函数有2个特点: 1,将分类损失值与回归误差值都包含在内 2,回归损失值乘以pi*,即只对包含目标的anchor计算误差。 此外,计算bbox误差时,不是比较四个角的坐标,而是tx,ty,tw,th,具体计算如下: 阅读全文
posted @ 2018-05-05 20:25 弥漫的幻雪 阅读(231) 评论(0) 推荐(0)
 
FasterRCNN----RPN结构与训练样本
摘要: 一、RPN网络结构 虚线之上,是RPN结构之前的网络结构,可以替换为VGG、ResNet等 假如输入图像是1000*600,则经过了几次stride后,map大小缩小了16倍,最后一层卷积层输出大约为60*40大小,那么相当于用3*3的窗口滑窗(注意有padding),对于左边一支路而言,输出18个 阅读全文
posted @ 2018-05-05 20:16 弥漫的幻雪 阅读(721) 评论(0) 推荐(0)
 
DenseNet----将网络变窄
摘要: 作者: DenseNet 的想法很大程度上源于我们去年发表在 ECCV 上的一个叫做随机深度网络(Deep networks with stochastic depth)工作。当时我们提出了一种类似于 Dropout 的方法来改进ResNet。我们发现在训练过程中的每一步都随机地「扔掉」(drop) 阅读全文
posted @ 2018-05-05 17:20 弥漫的幻雪 阅读(192) 评论(0) 推荐(0)
 
DenseNet----每一层和后面所有层连接
摘要: 一、结构 网络每一层的输入都是前面所有层输出的并集,而该层所学习的特征图也会被直接传给其后面所有层作为输入。 二、作用 有效解决梯度消失问题 阅读全文
posted @ 2018-05-05 17:16 弥漫的幻雪 阅读(291) 评论(0) 推荐(0)
 
ResNet----残差结构
摘要: 一、结构 二、作用 1.在网络继续加深时,在训练集上的效果反而下降,而这不是过拟合引起的,因为过拟合会导致在训练集上效果很好。 2.考虑残差结构的梯度表达式,xl表示该层的输入,xL表示该层的输出。下式最后一项求导的分子和分母写反了 梯度表达式原本是连乘的形式,残差结构相当于将每层里的乘法变成了加法 阅读全文
posted @ 2018-05-05 17:04 弥漫的幻雪 阅读(1138) 评论(0) 推荐(0)
 
上一页 1 2 3 4 5 下一页