摘要: 【CVPR2022】Beyond Fixation: Dynamic Window Visual Transformer 论文:https://arxiv.org/abs/2203.12856 代码:https://github.com/pzhren/DW-ViT 个人感觉,这个论文的 idea 部 阅读全文
posted @ 2022-09-24 17:56 高峰OUC 阅读(98) 评论(0) 推荐(0) 编辑
摘要: 【CVPR2022】CSWin Transformer: A General Vision Transformer Backbone with Cross-Shaped Windows 论文:https://arxiv.org/abs/2107.00652 代码:https://github.com 阅读全文
posted @ 2022-09-24 16:15 高峰OUC 阅读(284) 评论(0) 推荐(0) 编辑
摘要: 【CVPR2022】AdaViT: Adaptive Vision Transformers for Efficient Image 链接:Recognitionhttps://openaccess.thecvf.com/content/CVPR2022/papers/Meng_AdaViT_Ada 阅读全文
posted @ 2022-09-24 11:30 高峰OUC 阅读(163) 评论(0) 推荐(0) 编辑
摘要: 部分配色从知乎 marsggbo 的文章转载,同时本文也会不断更新。一个好的配色某种程度上能把翔一样的论文雕出花来,这里做个总结分享。 TIPS:想使用哪个颜色了,可以粘贴到PPT里,用吸管取色。或者用QQ截图,也能得到颜色的具体RGB值。个人感觉配色方案不需要太多,有三、五种供选择完全足够了。 论 阅读全文
posted @ 2022-09-14 14:50 高峰OUC 阅读(1109) 评论(0) 推荐(0) 编辑
摘要: 【CVPR2022】BatchFormer: Learning to Explore Sample Relationships for Robust Representation Learning 论文:https://arxiv.org/pdf/2203.01522.pdf 代码:https:// 阅读全文
posted @ 2022-09-07 01:13 高峰OUC 阅读(236) 评论(0) 推荐(0) 编辑
摘要: 【ARXIV2207】HorNet: Efficient High-Order Spatial Interactions with Recursive Gated Convolutions 论文地址:https://hornet.ivg-research.xyz 代码地址:https://githu 阅读全文
posted @ 2022-09-05 19:20 高峰OUC 阅读(292) 评论(0) 推荐(0) 编辑
摘要: 【CVPR2022】LAVT: Language-Aware Vision Transformer for Referring Image Segmentation 论文地址:https://arxiv.org/abs/2112.02244 代码地址:https://github.com/yz93/ 阅读全文
posted @ 2022-08-26 09:20 高峰OUC 阅读(244) 评论(0) 推荐(0) 编辑
摘要: 论文:https://arxiv.org/abs/2207.02255 论文中文版:https://dengpingfan.github.io/papers/%5B2022%5D%5BECCV%5DOSFormer_Chinese.pdf 代码:https://github.com/PJLallen 阅读全文
posted @ 2022-08-06 13:06 高峰OUC 阅读(230) 评论(0) 推荐(0) 编辑
摘要: 【ARXIV2205】Inception Transformer 论文:https://arxiv.org/abs/2205.12956 代码:https://github.com/sail-sg/iFormer 1、研究动机 这个论文的核心思想仍然是:把 attention 和 CNN 相结合(谷 阅读全文
posted @ 2022-07-11 20:45 高峰OUC 阅读(139) 评论(0) 推荐(0) 编辑
摘要: 【CVPR2022】Multi-Scale High-Resolution Vision Transformer for Semantic Segmentation 代码:https://github.com/facebookresearch/HRViT 核心思想和主要方法 这个论文的核心思想就是将 阅读全文
posted @ 2022-06-28 08:15 高峰OUC 阅读(198) 评论(0) 推荐(0) 编辑
摘要: **向孙老师致敬 ~~~ ** 【ARXIV2204】Simple Baselines for Image Restoration 代码:https://github.com/megvii-research/NAFNet 论文:https://arxiv.org/abs/2204.0467 感谢知乎 阅读全文
posted @ 2022-06-19 17:08 高峰OUC 阅读(267) 评论(0) 推荐(1) 编辑
摘要: 【ARXIV2203】Efficient Long-Range Attention Network for Image Super-resolution 代码:https://github.com/xindongzhang/ELAN 1、研究动机 尽管Transformer已经“主宰”了CV领域,在 阅读全文
posted @ 2022-06-18 18:29 高峰OUC 阅读(257) 评论(0) 推荐(0) 编辑
摘要: 【ARXIV2205】EdgeViTs: Competing Light-weight CNNs on Mobile Devices with Vision Transformers 91/100 发布文章 gaopursuit 未选择文件 【ARXIV2205】EdgeViTs: Competin 阅读全文
posted @ 2022-06-18 16:49 高峰OUC 阅读(88) 评论(0) 推荐(0) 编辑
摘要: 感谢B站“秋刀鱼的炼丹工坊” 的讲解,这里的解析结合了很多多的讲解。 论文:https://arxiv.org/abs/2204.07143 代码:https://github.com/SHI-Labs/Neighborhood-Attention-Transformer 这个论文非常简单,思想其实 阅读全文
posted @ 2022-06-18 11:17 高峰OUC 阅读(177) 评论(0) 推荐(0) 编辑
摘要: 【CVPR2022】On the Integration of Self-Attention and Convolution 论文地址:https://arxiv.org/pdf/2111.14556.pdf 代码地址:https://github.com/LeapLabTHU/ACmix 卷积和自 阅读全文
posted @ 2022-06-18 01:04 高峰OUC 阅读(229) 评论(0) 推荐(0) 编辑
摘要: 论文:https://arxiv.org/abs/2203.15332 代码:https://github.com/GeWu-Lab/OGM-GE_CVPR2022 这是一个来自人民大学GeWu-Lab的工作,被CVPR2022接收并选为Oral Presentation,相关代码已经开源。 1、研 阅读全文
posted @ 2022-06-15 16:10 高峰OUC 阅读(364) 评论(0) 推荐(1) 编辑
摘要: 论文:https://arxiv.org/pdf/2204.02557.pdf 代码:https://github.com/PaddlePaddle/PaddleClas 论文作者谌强在ReadPaper网站上有解读,推荐大家阅读:https://readpaper.com/paper/669120 阅读全文
posted @ 2022-05-14 18:58 高峰OUC 阅读(410) 评论(0) 推荐(0) 编辑
摘要: 论文:https://arxiv.org/abs/2204.03883 代码:https://github.com/IDKiro/DehazeFormer 1、研究动机 作者提出了 DehazeFormer 用于图像去雾,灵感来自Swin Transformer ,论文中有趣的地方在于 reflec 阅读全文
posted @ 2022-05-14 14:25 高峰OUC 阅读(193) 评论(0) 推荐(0) 编辑
摘要: 1、研究动机 当前的语义分割主要利用RGB图像,加入多源信息作为辅助(depth, Thermal等)可以有效提高语义分割的准确率,即融合多模态信息可以有效提高准确率。当前方法主要包括两种: Input fusion: 如下图a所示,将RGB和D数据拼接在一起,使用一个网络提取特征。 Feature 阅读全文
posted @ 2022-05-14 13:41 高峰OUC 阅读(322) 评论(0) 推荐(1) 编辑
摘要: 1、Motivation 作者指出当前视觉Transformer 模型中的痛点在于:huge resource demands。为了解决这个问题,作者提出了 Separable Vision Transformer (SepViT),整体架构如下图所示。 包括下面三个贡献: Depthwise se 阅读全文
posted @ 2022-05-03 11:27 高峰OUC 阅读(183) 评论(0) 推荐(0) 编辑
摘要: 论文:https://readpaper.com/paper/633541619879256064 代码:https://github.com/Chenglin-Yang/LVT 1、研究动机 尽管ViT模型在各种视觉任务中效果显著,但是目前轻量级的ViT模型在局部区域效果不理想,作者认为:自注意力 阅读全文
posted @ 2022-05-02 01:23 高峰OUC 阅读(307) 评论(0) 推荐(0) 编辑
摘要: 论文:https://openreview.net/forum?id=_WnAQKse_uK 代码:https://github.com/Annbless/ViTAE 1、Motivation 这个论文的思想非常简单:将CNN和 VIT 结合,浅层用CNN,深层用VIT。 同时,在attention 阅读全文
posted @ 2022-03-27 23:10 高峰OUC 阅读(200) 评论(0) 推荐(0) 编辑
摘要: 20220222 今天是20220222超级有爱日,新学期第一次集体跑步~考研成绩出了,几家欢乐几家愁~刚不可久,柔不可守,其实都是殊途同归,或早或晚,大家都将拥有平凡但绚丽的人生 20220219 心血来潮和杨总吃了个烤肉自助,一会儿就吃饱了,看着旁边年轻人热火朝天一盘盘大肉吃的美滋滋,真心羡慕~ 阅读全文
posted @ 2022-03-27 22:52 高峰OUC 阅读(92) 评论(0) 推荐(0) 编辑
摘要: 部分内容来自于 GiantPandaCV 的文章 论文:https://openaccess.thecvf.com/content/ICCV2021/papers/Yuan_Tokens-to-Token_ViT_Training_Vision_Transformers_From_Scratch_o 阅读全文
posted @ 2022-03-27 22:41 高峰OUC 阅读(259) 评论(0) 推荐(0) 编辑
摘要: a 论文链接:https://arxiv.org/abs/2111.09881 代码链接:https://github.com/swz30/Restormer 1、研究动机 论文的 motivation 非常简单,就是认为CNN感受野有限,因此无法对长距离像素相关性进行建模。因此,想使用 Trans 阅读全文
posted @ 2022-03-25 08:16 高峰OUC 阅读(630) 评论(2) 推荐(0) 编辑