随笔分类 - 论文推介
摘要:1、Motivation 作者指出当前视觉Transformer 模型中的痛点在于:huge resource demands。为了解决这个问题,作者提出了 Separable Vision Transformer (SepViT),整体架构如下图所示。 包括下面三个贡献: Depthwise se
阅读全文
摘要:论文:https://readpaper.com/paper/633541619879256064 代码:https://github.com/Chenglin-Yang/LVT 1、研究动机 尽管ViT模型在各种视觉任务中效果显著,但是目前轻量级的ViT模型在局部区域效果不理想,作者认为:自注意力
阅读全文
摘要:论文:https://openreview.net/forum?id=_WnAQKse_uK 代码:https://github.com/Annbless/ViTAE 1、Motivation 这个论文的思想非常简单:将CNN和 VIT 结合,浅层用CNN,深层用VIT。 同时,在attention
阅读全文
摘要:部分内容来自于 GiantPandaCV 的文章 论文:https://openaccess.thecvf.com/content/ICCV2021/papers/Yuan_Tokens-to-Token_ViT_Training_Vision_Transformers_From_Scratch_o
阅读全文
摘要:【ARXIV2202】Visual Attention Network 论文地址:https://arxiv.org/abs/2202.09741 代码地址:https://github.com/Visual-Attention-Network 一些想法 这个方法看起来非常简单,有些像在Mobile
阅读全文
摘要:【ICLR2022】Not all patches are what you need: Expediting vision transformers via token reorganization 文章链接:https://arxiv.org/abs/2202.07800 代码链接:https:
阅读全文
摘要:【ICLR2022】CrossFormer: A versatile vision transformer 论文:https://arxiv.org/abs/2108.00154 代码:https://github.com/cheerss/CrossFormer 论文代码级的解析推荐阅读 FlyEg
阅读全文
摘要:论文地址:https://arxiv.org/abs/1904.04971 代码(Pytorch版本,网友复现):https://github.com/xmu-xiaoma666/External-Attention-pytorch/blob/master/model/conv/CondConv.p
阅读全文
摘要:论文:【AAAI2022】When Shift Operation Meets Vision Transformer: An Extremely Simple Alternative to Attention Mechanism 代码:https://github.com/microsoft/SPA
阅读全文
摘要:论文:https://arxiv.org/abs/2201.03545 代码:https://github.com/facebookresearch/ConvNeXt Facebook 和 UC Berkeley 的科研人员提出了 ConvNeXt,对标的是2021年最火的 Swin Transfo
阅读全文
摘要:论文:【ICCV2021】Context Reasoning Attention Network for Image Super-Resolution 代码:https://github.com/Ast-363/CRAN (非官方实现) 论文的研究动机是“recent advances in neu
阅读全文
摘要:【CVPR2020】Non-local neural networks with grouped bilinear attention transforms 代码:https://github.com/BA-Transform/BAT-Image-Classification 作者提出了一种名为 b
阅读全文
摘要:论文:https://arxiv.org/pdf/2003.12243.pdf 代码:https://github.com/shallowtoil/DRConv-PyTorch (非官方实现) 这个论文的核心词是:动态网络。作者认为,传统卷积对于不同样本使用相同的 filter,如果能够对不同区域的
阅读全文
摘要:论文:https://arxiv.org/abs/2003.08866 代码:https://github.com/zdaxie/SpatiallyAdaptiveInference-Detection 这个论文的关键词是动态网络。如下图所示,动态网络目标是可以对 简单 和 困难 的样本分别 采用不
阅读全文
摘要:论文:https://arxiv.org/abs/2105.02358 代码:https://github.com/MenghaoGuo/EANet B站视频:https://www.bilibili.com/video/BV1ug411M7kL 大部分内容来自论文作者 国孟昊 的B站视频,讲解的非
阅读全文
摘要:论文:https://thefoxofsky.github.io/files/ddf.pdf 代码:https://github.com/thefoxofsky/ddfnet 主页:https://thefoxofsky.github.io/project_pages/ddf 先从论文首页的图说起。
阅读全文
摘要:本周记录两个论文,Visual saliency transformer 和 Dynamic grained encoder for VIT。 1、【ICCV2021】Vision saliency transformer 这个工作来自起源人工智能研究院和西北工业大学,是想用 Transformer
阅读全文
摘要:过去一年,谷歌提出的VIT成为最火的模型,说明全部由Self-attention组成的模型会超越CNN。但最近学者又在反思,问题的本质是什么? 2021年5月,谷歌挖坑 MLP-Mixer ,说明保持VIT的图像序列化输入,使用全连接网络,就可以取得非常好的性能 2021年10月,ICLR2022的
阅读全文
摘要:Rain-Free and Residue Hand-in-Hand: A Progressive Coupled Network for Real-Time Image Deraining, TIP 2021 代码: https://github.com/kuijiang0802/PCNet 1、
阅读全文
摘要:论文:Contrastive Learning for Compact Single Image Dehazing, CVPR 2021 代码:https://github.com/GlassyWu/AECR-Net 1、背景 当前方法的问题:1)使用clear images结合L1/L2重建损失进
阅读全文