更多信息欢迎访问我的个人主页 http://feng-gao.cn

OUC计算机科研狗

Be humble, communicate clearly, and respect others.

摘要: 【NeurIPS2022】Cross Aggregation Transformer for Image Restoration **研究动机:**当前方法 Transformer 方法把图像分成8x8的小块处理,the square window lacks inter-window intera 阅读全文
posted @ 2022-12-07 20:31 高峰OUC 阅读(0) 评论(0) 推荐(0) 编辑
摘要: 作者认为,交互复杂性是视觉识别一个重要特点。为此,作者通过复杂特征交互构建了一个纯卷积的网络 MogaNet 用于图像识别。MogaNet的整体框架如下图所示,架构和一般的 Transformer 网络非常类似,核心包括两个模块:spatial aggregation (取代注意力) 和 chann 阅读全文
posted @ 2022-12-07 15:09 高峰OUC 阅读(0) 评论(0) 推荐(0) 编辑
摘要: 【CVPR2022】Detecting Camouflaged Object in Frequency Domain 论文有一个非官方的实现:https://github.com/VisibleShadow/Implementation-of-Detecting-Camouflaged-Object- 阅读全文
posted @ 2022-12-04 11:37 高峰OUC 阅读(5) 评论(0) 推荐(0) 编辑
摘要: 【NeurIPS2022】ScalableViT: Rethinking the Context-oriented Generalization of Vision Transformer 这篇论文来自清华大学深圳研究生院和字节跳动。 从Swin开始,attention一般都包括局部 window 阅读全文
posted @ 2022-12-03 21:35 高峰OUC 阅读(3) 评论(0) 推荐(0) 编辑
摘要: 这个论文的核心贡献是提出了一种新的注意力机制 HiLo(High / Low frequency)。如下图所示,在上面部分,分配了 $1-\alpha$ 比例的 head 用于提取高频注意力,下面分配了 $\alpha$ 比例的 head 用于提取低频注意力。 高频注意力: 在2x2的窗口中计算 a 阅读全文
posted @ 2022-12-03 20:21 高峰OUC 阅读(1) 评论(0) 推荐(0) 编辑
摘要: 【ECCV2022】DaViT: Dual Attention Vision Transformers 代码:https://github.com/dingmyu/davit 这个论文想法很自然也容易想到。Transformer都是在处理 PxC 二维的数据,其中 P 是token 的数量,C是特征 阅读全文
posted @ 2022-11-18 19:34 高峰OUC 阅读(32) 评论(0) 推荐(0) 编辑
摘要: 【ARXIV2207】LightViT: Towards Light-Weight Convolution-Free Vision Transformers 论文地址:https://arxiv.org/abs/2207.05557 代码地址:https://github.com/hunto/Lig 阅读全文
posted @ 2022-11-18 07:00 高峰OUC 阅读(13) 评论(0) 推荐(0) 编辑
摘要: 1、Motivation 这个论文来自于清华大学鲁继文老师团队,核心是 attention 和 MLP-mixer 思想的结合。 建议用2分钟时间学习一下谷歌公司的 MLP-Mixer 「MLP-Mixer: An all-MLP Architecture for Vision」CVPR 2021 阅读全文
posted @ 2022-11-14 18:14 高峰OUC 阅读(34) 评论(0) 推荐(0) 编辑
摘要: 用5分钟时间学习一下谷歌公司的 MLP-Mixer 「MLP-Mixer: An all-MLP Architecture for Vision」CVPR 2021 CNN以及 attention 在视觉任务上取得非常好的性能,但是我们真的需要这么复杂的网络结构吗?MLP 这种简单的结构是否也能够取 阅读全文
posted @ 2022-11-03 03:17 高峰OUC 阅读(30) 评论(0) 推荐(0) 编辑
摘要: 【ACMMM 2022】Depth-inspired Label Mining for Unsupervised RGB-D Salient Object Detection 代码:https://github.com/youngtboy/DLM 这篇论文主要是利用无监督的思想,来解决RGBD显著性 阅读全文
posted @ 2022-10-29 00:19 高峰OUC 阅读(15) 评论(0) 推荐(0) 编辑
摘要: 【ACMMM 2022】Learning Hierarchical Dynamics with Spatial Adjacency for Image Enhancement 代码:https://github.com/DongLiangSXU/HDM 该论文的研究动机:近年来动态网络非常流行,因此 阅读全文
posted @ 2022-10-28 21:17 高峰OUC 阅读(29) 评论(0) 推荐(0) 编辑
摘要: 【ACMMM2022】Structure-Inferred Bi-level Model for Underwater Image Enhancement 代码:https://github.com/IntegralCoCo/SIBM (暂未开源) 该论文提出了一个 Structural-Infer 阅读全文
posted @ 2022-10-28 20:34 高峰OUC 阅读(24) 评论(0) 推荐(0) 编辑
摘要: 【NeurIPS 2022】SegNeXt: Rethinking Convolutional Attention Design for Semantic Segmentation 代码:https://github.com/Visual-Attention-Network/SegNeXt 1、研究 阅读全文
posted @ 2022-10-05 19:18 高峰OUC 阅读(341) 评论(0) 推荐(0) 编辑
摘要: 【MM2021】Cross-modality Discrepant Interaction Network for RGB-D Salient Object Detection 代码: https:// rmcong.github.io/proj_CDINet.html 1、研究动机 这是来自北京交 阅读全文
posted @ 2022-10-03 11:50 高峰OUC 阅读(55) 评论(0) 推荐(0) 编辑
摘要: 【CVPR2022】NFormer: Robust Person Re-identification with Neighbor Transformer 代码:https://github.com/haochenheheda/NFormer 1、研究动机 这是一个来自 Amsterdam 大学 和 阅读全文
posted @ 2022-09-27 12:57 高峰OUC 阅读(45) 评论(0) 推荐(0) 编辑
摘要: 【CVPR2022】Beyond Fixation: Dynamic Window Visual Transformer 论文:https://arxiv.org/abs/2203.12856 代码:https://github.com/pzhren/DW-ViT 个人感觉,这个论文的 idea 部 阅读全文
posted @ 2022-09-24 17:56 高峰OUC 阅读(37) 评论(0) 推荐(0) 编辑
摘要: 【CVPR2022】CSWin Transformer: A General Vision Transformer Backbone with Cross-Shaped Windows 论文:https://arxiv.org/abs/2107.00652 代码:https://github.com 阅读全文
posted @ 2022-09-24 16:15 高峰OUC 阅读(57) 评论(0) 推荐(0) 编辑
摘要: 【CVPR2022】AdaViT: Adaptive Vision Transformers for Efficient Image 链接:Recognitionhttps://openaccess.thecvf.com/content/CVPR2022/papers/Meng_AdaViT_Ada 阅读全文
posted @ 2022-09-24 11:30 高峰OUC 阅读(45) 评论(0) 推荐(0) 编辑
摘要: 部分配色从知乎 marsggbo 的文章转载,同时本文也会不断更新。一个好的配色某种程度上能把翔一样的论文雕出花来,这里做个总结分享。 TIPS:想使用哪个颜色了,可以粘贴到PPT里,用吸管取色。或者用QQ截图,也能得到颜色的具体RGB值。个人感觉配色方案不需要太多,有三、五种供选择完全足够了。 论 阅读全文
posted @ 2022-09-14 14:50 高峰OUC 阅读(185) 评论(0) 推荐(0) 编辑
摘要: 【CVPR2022】BatchFormer: Learning to Explore Sample Relationships for Robust Representation Learning 论文:https://arxiv.org/pdf/2203.01522.pdf 代码:https:// 阅读全文
posted @ 2022-09-07 01:13 高峰OUC 阅读(87) 评论(0) 推荐(0) 编辑
摘要: 【ARXIV2207】HorNet: Efficient High-Order Spatial Interactions with Recursive Gated Convolutions 论文地址:https://hornet.ivg-research.xyz 代码地址:https://githu 阅读全文
posted @ 2022-09-05 19:20 高峰OUC 阅读(151) 评论(0) 推荐(0) 编辑
摘要: 【CVPR2022】LAVT: Language-Aware Vision Transformer for Referring Image Segmentation 论文地址:https://arxiv.org/abs/2112.02244 代码地址:https://github.com/yz93/ 阅读全文
posted @ 2022-08-26 09:20 高峰OUC 阅读(102) 评论(0) 推荐(0) 编辑
摘要: 论文:https://arxiv.org/abs/2207.02255 论文中文版:https://dengpingfan.github.io/papers/%5B2022%5D%5BECCV%5DOSFormer_Chinese.pdf 代码:https://github.com/PJLallen 阅读全文
posted @ 2022-08-06 13:06 高峰OUC 阅读(94) 评论(0) 推荐(0) 编辑
摘要: 【ARXIV2205】Inception Transformer 论文:https://arxiv.org/abs/2205.12956 代码:https://github.com/sail-sg/iFormer 1、研究动机 这个论文的核心思想仍然是:把 attention 和 CNN 相结合(谷 阅读全文
posted @ 2022-07-11 20:45 高峰OUC 阅读(70) 评论(0) 推荐(0) 编辑
摘要: 【CVPR2022】Multi-Scale High-Resolution Vision Transformer for Semantic Segmentation 代码:https://github.com/facebookresearch/HRViT 核心思想和主要方法 这个论文的核心思想就是将 阅读全文
posted @ 2022-06-28 08:15 高峰OUC 阅读(73) 评论(0) 推荐(0) 编辑