会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
yankun1482
博客园
首页
新随笔
联系
订阅
管理
2023年7月19日
self-attention
摘要: Self attention考虑了整个sequence的资讯【transfermer中重要的架构是self-attention】 解决sequence2sequence的问题,考虑前后文 I saw a saw 第一个saw对应输出动词 第二个输出名词 如何计算相关性【attention score
阅读全文
posted @ 2023-07-19 21:54 AKA铁柱
阅读(14)
评论(0)
推荐(0)
公告