随笔分类 -  论文推介

摘要:【MM2021】Cross-modality Discrepant Interaction Network for RGB-D Salient Object Detection 代码: https:// rmcong.github.io/proj_CDINet.html 1、研究动机 这是来自北京交 阅读全文
posted @ 2022-10-03 11:50 高峰OUC 阅读(191) 评论(0) 推荐(0)
摘要:【CVPR2022】NFormer: Robust Person Re-identification with Neighbor Transformer 代码:https://github.com/haochenheheda/NFormer 1、研究动机 这是一个来自 Amsterdam 大学 和 阅读全文
posted @ 2022-09-27 12:57 高峰OUC 阅读(234) 评论(0) 推荐(0)
摘要:【CVPR2022】Beyond Fixation: Dynamic Window Visual Transformer 论文:https://arxiv.org/abs/2203.12856 代码:https://github.com/pzhren/DW-ViT 个人感觉,这个论文的 idea 部 阅读全文
posted @ 2022-09-24 17:56 高峰OUC 阅读(126) 评论(0) 推荐(0)
摘要:【CVPR2022】CSWin Transformer: A General Vision Transformer Backbone with Cross-Shaped Windows 论文:https://arxiv.org/abs/2107.00652 代码:https://github.com 阅读全文
posted @ 2022-09-24 16:15 高峰OUC 阅读(409) 评论(0) 推荐(0)
摘要:【CVPR2022】AdaViT: Adaptive Vision Transformers for Efficient Image 链接:Recognitionhttps://openaccess.thecvf.com/content/CVPR2022/papers/Meng_AdaViT_Ada 阅读全文
posted @ 2022-09-24 11:30 高峰OUC 阅读(259) 评论(0) 推荐(0)
摘要:【CVPR2022】BatchFormer: Learning to Explore Sample Relationships for Robust Representation Learning 论文:https://arxiv.org/pdf/2203.01522.pdf 代码:https:// 阅读全文
posted @ 2022-09-07 01:13 高峰OUC 阅读(321) 评论(0) 推荐(0)
摘要:【ARXIV2207】HorNet: Efficient High-Order Spatial Interactions with Recursive Gated Convolutions 论文地址:https://hornet.ivg-research.xyz 代码地址:https://githu 阅读全文
posted @ 2022-09-05 19:20 高峰OUC 阅读(392) 评论(0) 推荐(0)
摘要:【CVPR2022】LAVT: Language-Aware Vision Transformer for Referring Image Segmentation 论文地址:https://arxiv.org/abs/2112.02244 代码地址:https://github.com/yz93/ 阅读全文
posted @ 2022-08-26 09:20 高峰OUC 阅读(437) 评论(0) 推荐(0)
摘要:论文:https://arxiv.org/abs/2207.02255 论文中文版:https://dengpingfan.github.io/papers/%5B2022%5D%5BECCV%5DOSFormer_Chinese.pdf 代码:https://github.com/PJLallen 阅读全文
posted @ 2022-08-06 13:06 高峰OUC 阅读(290) 评论(0) 推荐(0)
摘要:【ARXIV2205】Inception Transformer 论文:https://arxiv.org/abs/2205.12956 代码:https://github.com/sail-sg/iFormer 1、研究动机 这个论文的核心思想仍然是:把 attention 和 CNN 相结合(谷 阅读全文
posted @ 2022-07-11 20:45 高峰OUC 阅读(265) 评论(0) 推荐(0)
摘要:【CVPR2022】Multi-Scale High-Resolution Vision Transformer for Semantic Segmentation 代码:https://github.com/facebookresearch/HRViT 核心思想和主要方法 这个论文的核心思想就是将 阅读全文
posted @ 2022-06-28 08:15 高峰OUC 阅读(259) 评论(0) 推荐(0)
摘要:**向孙老师致敬 ~~~ ** 【ARXIV2204】Simple Baselines for Image Restoration 代码:https://github.com/megvii-research/NAFNet 论文:https://arxiv.org/abs/2204.0467 感谢知乎 阅读全文
posted @ 2022-06-19 17:08 高峰OUC 阅读(438) 评论(0) 推荐(1)
摘要:【ARXIV2203】Efficient Long-Range Attention Network for Image Super-resolution 代码:https://github.com/xindongzhang/ELAN 1、研究动机 尽管Transformer已经“主宰”了CV领域,在 阅读全文
posted @ 2022-06-18 18:29 高峰OUC 阅读(362) 评论(0) 推荐(0)
摘要:【ARXIV2205】EdgeViTs: Competing Light-weight CNNs on Mobile Devices with Vision Transformers 91/100 发布文章 gaopursuit 未选择文件 【ARXIV2205】EdgeViTs: Competin 阅读全文
posted @ 2022-06-18 16:49 高峰OUC 阅读(143) 评论(0) 推荐(0)
摘要:感谢B站“秋刀鱼的炼丹工坊” 的讲解,这里的解析结合了很多多的讲解。 论文:https://arxiv.org/abs/2204.07143 代码:https://github.com/SHI-Labs/Neighborhood-Attention-Transformer 这个论文非常简单,思想其实 阅读全文
posted @ 2022-06-18 11:17 高峰OUC 阅读(257) 评论(0) 推荐(0)
摘要:【CVPR2022】On the Integration of Self-Attention and Convolution 论文地址:https://arxiv.org/pdf/2111.14556.pdf 代码地址:https://github.com/LeapLabTHU/ACmix 卷积和自 阅读全文
posted @ 2022-06-18 01:04 高峰OUC 阅读(472) 评论(0) 推荐(0)
摘要:论文:https://arxiv.org/abs/2203.15332 代码:https://github.com/GeWu-Lab/OGM-GE_CVPR2022 这是一个来自人民大学GeWu-Lab的工作,被CVPR2022接收并选为Oral Presentation,相关代码已经开源。 1、研 阅读全文
posted @ 2022-06-15 16:10 高峰OUC 阅读(701) 评论(0) 推荐(1)
摘要:论文:https://arxiv.org/pdf/2204.02557.pdf 代码:https://github.com/PaddlePaddle/PaddleClas 论文作者谌强在ReadPaper网站上有解读,推荐大家阅读:https://readpaper.com/paper/669120 阅读全文
posted @ 2022-05-14 18:58 高峰OUC 阅读(501) 评论(0) 推荐(0)
摘要:论文:https://arxiv.org/abs/2204.03883 代码:https://github.com/IDKiro/DehazeFormer 1、研究动机 作者提出了 DehazeFormer 用于图像去雾,灵感来自Swin Transformer ,论文中有趣的地方在于 reflec 阅读全文
posted @ 2022-05-14 14:25 高峰OUC 阅读(367) 评论(0) 推荐(0)
摘要:1、研究动机 当前的语义分割主要利用RGB图像,加入多源信息作为辅助(depth, Thermal等)可以有效提高语义分割的准确率,即融合多模态信息可以有效提高准确率。当前方法主要包括两种: Input fusion: 如下图a所示,将RGB和D数据拼接在一起,使用一个网络提取特征。 Feature 阅读全文
posted @ 2022-05-14 13:41 高峰OUC 阅读(461) 评论(0) 推荐(1)