Catherine_zhilin

  博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理

随笔分类 -  深度学习

摘要:论文Fully Convolutional Networks for Semantic Segmentation 是图像分割的milestone论文。 GitHub - shelhamer/fcn.berkeleyvision.org: Fully Convolutional Networks fo 阅读全文
posted @ 2021-10-27 21:58 kkkshiki 阅读(733) 评论(0) 推荐(0)

摘要:提出于FCN。 如果将全卷积之后的结果直接上采样得到的结果是很粗糙的,所以将不同池化层的结果进行上采样之后来优化输出: 不同上采样结构得到的结果对比举例如下(FCN): 也可以将pool1, pool2的输出再上采样输出。但作者说了这样得到的结果提升并不大。(实际实验过发现也确实是这样的!) 阅读全文
posted @ 2021-10-27 21:11 kkkshiki 阅读(278) 评论(0) 推荐(0)

摘要:目标检测任务的损失函数由 Classificition Loss 和 Bounding Box Regeression Loss 两部分构成。本文介绍目标检测任务中近几年来Bounding Box Regression Loss Function的演进过程,其演进路线是Smooth L1 Loss  阅读全文
posted @ 2021-10-27 21:07 kkkshiki 阅读(1965) 评论(0) 推荐(0)

摘要:特征融合的目的,是把从图像中提取的特征,合并成一个比输入特征更具有判别能力的特征。如何正确融合特征是一个难题。 在很多工作中,融合不同尺度的特征是提高分割性能的一个重要手段。低层特征分辨率更高,包含更多位置、细节信息,但是由于经过的卷积更少,其语义性更低,噪声更多。高层特征具有更强的语义信息,但是分 阅读全文
posted @ 2021-10-27 14:57 kkkshiki 阅读(8132) 评论(0) 推荐(0)

摘要:本文将介绍一种新提出的坐标注意力机制,这种机制解决了SE,CBAM上存在的一些问题,产生了更好的效果,而使用与SE,CBAM同样简单。 论文地址: https://arxiv.org/pdf/2103.02907.pdf 代码地址: https://github.com/AndrewQibin/Co 阅读全文
posted @ 2021-10-25 23:20 kkkshiki 阅读(4837) 评论(0) 推荐(0)

摘要:SE模块(Squeeze-and-Excitation) SENet: SENet网络的创新点在于关注channel之间的关系,希望模型可以自动学习到不同channel特征的重要程度。为此,SENet提出了Squeeze-and-Excitation (SE)模块。 SE模块首先对卷积得到的特征图进 阅读全文
posted @ 2021-10-25 23:01 kkkshiki 阅读(6625) 评论(0) 推荐(0)

摘要:重点是建立好input 建立好output 其中input 和 output是 关联的 多输入情况: 该model中间产生分叉:两个输入,两个flatten ,concatenta合并,最后变成一个dense 概率输出 阅读全文
posted @ 2021-09-13 11:24 kkkshiki 阅读(224) 评论(0) 推荐(0)

摘要: 阅读全文
posted @ 2021-09-13 10:01 kkkshiki 阅读(34) 评论(0) 推荐(0)

摘要:从一层增加到三层 ,增加网络层数越多可能会造成过拟合 原来: 后来: 增加网络拟合能力,能够增加数据的准确程度。模型拟合能力过分增加,模型可能过拟合 结果: 随着训练 train数据一直在下降,但是在val_loss在某点不但没有下降反而上升了(因为后面一段产生了过拟合) 阅读全文
posted @ 2021-09-12 14:16 kkkshiki 阅读(64) 评论(0) 推荐(0)

摘要:找山坡最低点 向着梯度方向走:最陡峭的方向,切点的方向 梯度下降算法:沿着梯度的反方向走 如果步长太大,很可能做过最优解 阅读全文
posted @ 2021-08-01 20:14 kkkshiki 阅读(97) 评论(0) 推荐(0)

摘要:Sigmoid函数:Sigmoid函数_百度百科 (baidu.com) 比方说 测试是否为猫; 最后结果越接近为1则,是猫的概率越大 利用log函数:距离1越近 绝对值越小 神经网络最后一层就是 softmax 阅读全文
posted @ 2021-08-01 19:06 kkkshiki 阅读(142) 评论(0) 推荐(0)

摘要:损失函数值越大,分类效果越差’ 损失函数越小,分类效果越好 定义分类结果的好坏 利用权重参数 Sigmoid函数 机器学习之sigmoid函数 - 简书 (jianshu.com) 阅读全文
posted @ 2021-08-01 19:00 kkkshiki 阅读(41) 评论(0) 推荐(0)

摘要:线性分类; 指定图像中哪些像素点重要,哪些不重要 f(x,W)=Wx +b(偏置项) 将三维的像素值转换成向量:需要知道每一个像素点的重要程度 例如:[32*32*3] 3072个像素点,需要有3072个权重参数。 权重参数矩阵->得分值 本质都是要优化 W和b 利用损失函数 得出 模型的差距大小 阅读全文
posted @ 2021-08-01 18:55 kkkshiki 阅读(277) 评论(0) 推荐(0)

摘要:一张图片有可以被表示为三维数组的形式,每个像素值从0到255 图像属性:染色通道 。 彩色图有三个:r,g,b。 黑白图有一个染色通道。例如某图片:300*100*3,值越大越黑。(图像是三维的 H*W*C) 对图片处理面对的挑战:光照角度,光照强度,形状改变,部分遮蔽,背景混入 机器学习常规套路: 阅读全文
posted @ 2021-08-01 18:25 kkkshiki 阅读(163) 评论(0) 推荐(0)

摘要:1、安装python 2.配置anaconda 环境 3.打开 jupyter方式: 3.1 安装jupyter 3.2利用anaconda 命令行:进入jupyter想要保存的文件夹之后:使用命令: jupyter notebook 阅读全文
posted @ 2021-08-01 18:03 kkkshiki 阅读(44) 评论(0) 推荐(0)