会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
zhangzeff
首页
联系
订阅
管理
2021年6月27日
Transformer
摘要: 做Softmax不是唯一的选项,做ReLu之类的结果也不会比较差,但是Softmax是用的最多的 CNN是self-attention的特例,论文:On the Relationship between Self-Attention and Convolutional Layers CNN和self
阅读全文
posted @ 2021-06-27 21:44 zhangzeff
阅读(733)
评论(0)
推荐(0)
公告