随笔分类 -  论文推介

摘要:1、研究动机 当前的语义分割主要利用RGB图像,加入多源信息作为辅助(depth, Thermal等)可以有效提高语义分割的准确率,即融合多模态信息可以有效提高准确率。当前方法主要包括两种: Input fusion: 如下图a所示,将RGB和D数据拼接在一起,使用一个网络提取特征。 Feature 阅读全文
posted @ 2022-05-14 13:41 高峰是我啦 阅读(475) 评论(0) 推荐(1)
摘要:1、Motivation 作者指出当前视觉Transformer 模型中的痛点在于:huge resource demands。为了解决这个问题,作者提出了 Separable Vision Transformer (SepViT),整体架构如下图所示。 包括下面三个贡献: Depthwise se 阅读全文
posted @ 2022-05-03 11:27 高峰是我啦 阅读(237) 评论(0) 推荐(0)
摘要:论文:https://readpaper.com/paper/633541619879256064 代码:https://github.com/Chenglin-Yang/LVT 1、研究动机 尽管ViT模型在各种视觉任务中效果显著,但是目前轻量级的ViT模型在局部区域效果不理想,作者认为:自注意力 阅读全文
posted @ 2022-05-02 01:23 高峰是我啦 阅读(423) 评论(0) 推荐(0)
摘要:论文:https://openreview.net/forum?id=_WnAQKse_uK 代码:https://github.com/Annbless/ViTAE 1、Motivation 这个论文的思想非常简单:将CNN和 VIT 结合,浅层用CNN,深层用VIT。 同时,在attention 阅读全文
posted @ 2022-03-27 23:10 高峰是我啦 阅读(260) 评论(0) 推荐(0)
摘要:部分内容来自于 GiantPandaCV 的文章 论文:https://openaccess.thecvf.com/content/ICCV2021/papers/Yuan_Tokens-to-Token_ViT_Training_Vision_Transformers_From_Scratch_o 阅读全文
posted @ 2022-03-27 22:41 高峰是我啦 阅读(353) 评论(0) 推荐(0)
摘要:【ARXIV2202】Visual Attention Network 论文地址:https://arxiv.org/abs/2202.09741 代码地址:https://github.com/Visual-Attention-Network 一些想法 这个方法看起来非常简单,有些像在Mobile 阅读全文
posted @ 2022-03-18 08:04 高峰是我啦 阅读(748) 评论(0) 推荐(0)
摘要:【ICLR2022】Not all patches are what you need: Expediting vision transformers via token reorganization 文章链接:https://arxiv.org/abs/2202.07800 代码链接:https: 阅读全文
posted @ 2022-03-18 08:00 高峰是我啦 阅读(212) 评论(0) 推荐(0)
摘要:【ICLR2022】CrossFormer: A versatile vision transformer 论文:https://arxiv.org/abs/2108.00154 代码:https://github.com/cheerss/CrossFormer 论文代码级的解析推荐阅读 FlyEg 阅读全文
posted @ 2022-02-17 10:11 高峰是我啦 阅读(500) 评论(0) 推荐(0)
摘要:论文地址:https://arxiv.org/abs/1904.04971 代码(Pytorch版本,网友复现):https://github.com/xmu-xiaoma666/External-Attention-pytorch/blob/master/model/conv/CondConv.p 阅读全文
posted @ 2022-02-15 11:16 高峰是我啦 阅读(844) 评论(0) 推荐(0)
摘要:论文:【AAAI2022】When Shift Operation Meets Vision Transformer: An Extremely Simple Alternative to Attention Mechanism 代码:https://github.com/microsoft/SPA 阅读全文
posted @ 2022-01-29 20:30 高峰是我啦 阅读(277) 评论(0) 推荐(0)
摘要:论文:https://arxiv.org/abs/2201.03545 代码:https://github.com/facebookresearch/ConvNeXt Facebook 和 UC Berkeley 的科研人员提出了 ConvNeXt,对标的是2021年最火的 Swin Transfo 阅读全文
posted @ 2022-01-28 14:22 高峰是我啦 阅读(323) 评论(0) 推荐(0)
摘要:论文:【ICCV2021】Context Reasoning Attention Network for Image Super-Resolution 代码:https://github.com/Ast-363/CRAN (非官方实现) 论文的研究动机是“recent advances in neu 阅读全文
posted @ 2022-01-24 09:33 高峰是我啦 阅读(407) 评论(0) 推荐(0)
摘要:【CVPR2020】Non-local neural networks with grouped bilinear attention transforms 代码:https://github.com/BA-Transform/BAT-Image-Classification 作者提出了一种名为 b 阅读全文
posted @ 2022-01-23 14:18 高峰是我啦 阅读(159) 评论(0) 推荐(0)
摘要:论文:https://arxiv.org/pdf/2003.12243.pdf 代码:https://github.com/shallowtoil/DRConv-PyTorch (非官方实现) 这个论文的核心词是:动态网络。作者认为,传统卷积对于不同样本使用相同的 filter,如果能够对不同区域的 阅读全文
posted @ 2022-01-22 16:25 高峰是我啦 阅读(385) 评论(0) 推荐(2)
摘要:论文:https://arxiv.org/abs/2003.08866 代码:https://github.com/zdaxie/SpatiallyAdaptiveInference-Detection 这个论文的关键词是动态网络。如下图所示,动态网络目标是可以对 简单 和 困难 的样本分别 采用不 阅读全文
posted @ 2022-01-22 15:49 高峰是我啦 阅读(167) 评论(0) 推荐(0)
摘要:论文:https://arxiv.org/abs/2105.02358 代码:https://github.com/MenghaoGuo/EANet B站视频:https://www.bilibili.com/video/BV1ug411M7kL 大部分内容来自论文作者 国孟昊 的B站视频,讲解的非 阅读全文
posted @ 2022-01-18 22:11 高峰是我啦 阅读(131) 评论(0) 推荐(0)
摘要:论文:https://thefoxofsky.github.io/files/ddf.pdf 代码:https://github.com/thefoxofsky/ddfnet 主页:https://thefoxofsky.github.io/project_pages/ddf 先从论文首页的图说起。 阅读全文
posted @ 2022-01-18 21:55 高峰是我啦 阅读(158) 评论(0) 推荐(0)
摘要:本周记录两个论文,Visual saliency transformer 和 Dynamic grained encoder for VIT。 1、【ICCV2021】Vision saliency transformer 这个工作来自起源人工智能研究院和西北工业大学,是想用 Transformer 阅读全文
posted @ 2021-12-04 10:02 高峰是我啦 阅读(305) 评论(2) 推荐(0)
摘要:过去一年,谷歌提出的VIT成为最火的模型,说明全部由Self-attention组成的模型会超越CNN。但最近学者又在反思,问题的本质是什么? 2021年5月,谷歌挖坑 MLP-Mixer ,说明保持VIT的图像序列化输入,使用全连接网络,就可以取得非常好的性能 2021年10月,ICLR2022的 阅读全文
posted @ 2021-11-29 04:45 高峰是我啦 阅读(248) 评论(0) 推荐(0)
摘要:Rain-Free and Residue Hand-in-Hand: A Progressive Coupled Network for Real-Time Image Deraining, TIP 2021 代码: https://github.com/kuijiang0802/PCNet 1、 阅读全文
posted @ 2021-10-04 20:37 高峰是我啦 阅读(383) 评论(0) 推荐(0)