随笔分类 - 论文推介
摘要:【MM2021】Cross-modality Discrepant Interaction Network for RGB-D Salient Object Detection 代码: https:// rmcong.github.io/proj_CDINet.html 1、研究动机 这是来自北京交
阅读全文
摘要:【CVPR2022】NFormer: Robust Person Re-identification with Neighbor Transformer 代码:https://github.com/haochenheheda/NFormer 1、研究动机 这是一个来自 Amsterdam 大学 和
阅读全文
摘要:【CVPR2022】Beyond Fixation: Dynamic Window Visual Transformer 论文:https://arxiv.org/abs/2203.12856 代码:https://github.com/pzhren/DW-ViT 个人感觉,这个论文的 idea 部
阅读全文
摘要:【CVPR2022】CSWin Transformer: A General Vision Transformer Backbone with Cross-Shaped Windows 论文:https://arxiv.org/abs/2107.00652 代码:https://github.com
阅读全文
摘要:【CVPR2022】AdaViT: Adaptive Vision Transformers for Efficient Image 链接:Recognitionhttps://openaccess.thecvf.com/content/CVPR2022/papers/Meng_AdaViT_Ada
阅读全文
摘要:【CVPR2022】BatchFormer: Learning to Explore Sample Relationships for Robust Representation Learning 论文:https://arxiv.org/pdf/2203.01522.pdf 代码:https://
阅读全文
摘要:【ARXIV2207】HorNet: Efficient High-Order Spatial Interactions with Recursive Gated Convolutions 论文地址:https://hornet.ivg-research.xyz 代码地址:https://githu
阅读全文
摘要:【CVPR2022】LAVT: Language-Aware Vision Transformer for Referring Image Segmentation 论文地址:https://arxiv.org/abs/2112.02244 代码地址:https://github.com/yz93/
阅读全文
摘要:论文:https://arxiv.org/abs/2207.02255 论文中文版:https://dengpingfan.github.io/papers/%5B2022%5D%5BECCV%5DOSFormer_Chinese.pdf 代码:https://github.com/PJLallen
阅读全文
摘要:【ARXIV2205】Inception Transformer 论文:https://arxiv.org/abs/2205.12956 代码:https://github.com/sail-sg/iFormer 1、研究动机 这个论文的核心思想仍然是:把 attention 和 CNN 相结合(谷
阅读全文
摘要:【CVPR2022】Multi-Scale High-Resolution Vision Transformer for Semantic Segmentation 代码:https://github.com/facebookresearch/HRViT 核心思想和主要方法 这个论文的核心思想就是将
阅读全文
摘要:**向孙老师致敬 ~~~ ** 【ARXIV2204】Simple Baselines for Image Restoration 代码:https://github.com/megvii-research/NAFNet 论文:https://arxiv.org/abs/2204.0467 感谢知乎
阅读全文
摘要:【ARXIV2203】Efficient Long-Range Attention Network for Image Super-resolution 代码:https://github.com/xindongzhang/ELAN 1、研究动机 尽管Transformer已经“主宰”了CV领域,在
阅读全文
摘要:【ARXIV2205】EdgeViTs: Competing Light-weight CNNs on Mobile Devices with Vision Transformers 91/100 发布文章 gaopursuit 未选择文件 【ARXIV2205】EdgeViTs: Competin
阅读全文
摘要:感谢B站“秋刀鱼的炼丹工坊” 的讲解,这里的解析结合了很多多的讲解。 论文:https://arxiv.org/abs/2204.07143 代码:https://github.com/SHI-Labs/Neighborhood-Attention-Transformer 这个论文非常简单,思想其实
阅读全文
摘要:【CVPR2022】On the Integration of Self-Attention and Convolution 论文地址:https://arxiv.org/pdf/2111.14556.pdf 代码地址:https://github.com/LeapLabTHU/ACmix 卷积和自
阅读全文
摘要:论文:https://arxiv.org/abs/2203.15332 代码:https://github.com/GeWu-Lab/OGM-GE_CVPR2022 这是一个来自人民大学GeWu-Lab的工作,被CVPR2022接收并选为Oral Presentation,相关代码已经开源。 1、研
阅读全文
摘要:论文:https://arxiv.org/pdf/2204.02557.pdf 代码:https://github.com/PaddlePaddle/PaddleClas 论文作者谌强在ReadPaper网站上有解读,推荐大家阅读:https://readpaper.com/paper/669120
阅读全文
摘要:论文:https://arxiv.org/abs/2204.03883 代码:https://github.com/IDKiro/DehazeFormer 1、研究动机 作者提出了 DehazeFormer 用于图像去雾,灵感来自Swin Transformer ,论文中有趣的地方在于 reflec
阅读全文
摘要:1、研究动机 当前的语义分割主要利用RGB图像,加入多源信息作为辅助(depth, Thermal等)可以有效提高语义分割的准确率,即融合多模态信息可以有效提高准确率。当前方法主要包括两种: Input fusion: 如下图a所示,将RGB和D数据拼接在一起,使用一个网络提取特征。 Feature
阅读全文