• 博客园logo
  • 会员
  • 众包
  • 新闻
  • 博问
  • 闪存
  • 赞助商
  • HarmonyOS
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
返回主页

IcarusYu

  • 博客园
  • 首页
  • 新随笔
  • 联系
  • 订阅
  • 管理

bert入门资料

transformer: Attention Is All You Need讲解

参考ppt: http://www.isclab.org.cn/wp-content/uploads/2018/12/Transformer%E4%B8%AD%E7%9A%84Multi-Head-Attention-%E7%8E%8B%E7%9D%BF%E6%80%A1-2018.12.9-19_00_00.pdf
参考知乎:https://zhuanlan.zhihu.com/p/46990010

bert入门

参考:https://zhuanlan.zhihu.com/p/49271699

https://zhuanlan.zhihu.com/p/48612853

用bert做抽取式摘要

参考:https://zhuanlan.zhihu.com/p/74150102

posted @ 2019-09-14 15:11  IcarusYu  阅读(380)  评论(0)    收藏  举报
刷新页面返回顶部

公告

博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3