• 博客园logo
  • 会员
  • 周边
  • 新闻
  • 博问
  • 闪存
  • 众包
  • 赞助商
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
grapefruit-xh
博客园    首页    新随笔    联系   管理    订阅  订阅
CvT: Introducing Convolutions to Vision Transformers-首次将Transformer应用于分类任务

CvT: Introducing Convolutions to Vision Transformers

Paper:https://arxiv.org/pdf/2103.15808.pdf

Code:https://github.com/rishikksh20/convolution-vision-transformers/

Motivation:在相似尺寸下,VIT的性能要弱于CNN架构;VIT所需的训练数据量要远远大于CNN模型

CvT将卷积引入Transformer,总架构是一个multi-stage的hierarchical的结构:

首先embedding的方式变成了卷积操作,在每个Multi-head self-attention之前都进行Convolutional Token Embedding。其次在 Self-attention的Projection操作不再使用传统的Linear Projection,而是使用Convolutional Projection。

 

Linear Projection->convolutional Projection

 

 (c)这一步可以补偿分辨率下降的损失

为什么不用位置编码:卷机操作的zero-padding暗含位置信息

posted on 2022-04-12 16:27  爱吃柚子的小肖  阅读(258)  评论(1)    收藏  举报
刷新页面返回顶部
博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3