会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
AncilunKiang
博客园
首页
新随笔
联系
订阅
管理
2023年10月27日
《动手学深度学习 Pytorch版》 10.7 Transformer
摘要: 自注意力同时具有并行计算和最短的最大路径长度这两个优势。Transformer 模型完全基于注意力机制,没有任何卷积层或循环神经网络层。尽管 Transformer 最初是应用于在文本数据上的序列到序列学习,但现在已经推广到各种现代的深度学习中,例如语言、视觉、语音和强化学习领域。 10.7.1 模
阅读全文
posted @ 2023-10-27 21:32 AncilunKiang
阅读(280)
评论(0)
推荐(0)
公告