会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
叠加态的猫
博客园
首页
新随笔
联系
管理
订阅
2022年5月6日
On Recognizing Texts of Arbitrary Shapes with 2D Self-Attention
摘要: 和用LSTM的方法对比, 和transform相比主要区别在于编码器上,由3部分构成: 1、Shallow CNN,用于控制计算量 2、Adaptive 2D positional encoding 论文中说Transformer的Position Encoding模块可能在视觉作用中起不了作用,但
阅读全文
posted @ 2022-05-06 10:13 叠加态的猫
阅读(121)
评论(0)
推荐(0)
公告