• 博客园logo
  • 会员
  • 众包
  • 新闻
  • 博问
  • 闪存
  • 赞助商
  • HarmonyOS
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录

LAUSpectrum

  • 博客园
  • 联系
  • 订阅
  • 管理

公告

上一页 1 2 3 4 5 6 下一页

2019年9月15日

[paper] HIBERT: Document Level Pre-training of Hierarchical Bidirectional Transformers for Document Summarization

摘要: 阅读全文

posted @ 2019-09-15 21:31 LAUSpectrum 阅读(678) 评论(0) 推荐(0)

2019年9月14日

[paper] On Extractive and Abstractive Neural Document Summarization with Transformer Language Models

摘要: 阅读全文

posted @ 2019-09-14 22:42 LAUSpectrum 阅读(878) 评论(1) 推荐(0)

[paper] Hierarchical Transformers for Multi-Document Summarization

摘要: 阅读全文

posted @ 2019-09-14 21:14 LAUSpectrum 阅读(760) 评论(0) 推荐(0)

2019年8月22日

[notes] 在Windows系统上安装pytorch

摘要: 阅读全文

posted @ 2019-08-22 17:22 LAUSpectrum 阅读(130) 评论(0) 推荐(0)

2019年7月27日

[codes] Writing Editing Networks Source Code Analysis

摘要: Basic Information 作者: "Qingyun Wang" 论文:Paper Abstract Writing through Editing Mechanism (ACL) 源码:https://github.com/EagleW/Writing editing Network Da 阅读全文

posted @ 2019-07-27 21:23 LAUSpectrum 阅读(258) 评论(0) 推荐(0)

2019年7月25日

[notes] notes of Transformer [4]

摘要: 阅读全文

posted @ 2019-07-25 21:25 LAUSpectrum 阅读(175) 评论(0) 推荐(0)

[notes] notes of Transformer [3]

摘要: 阅读全文

posted @ 2019-07-25 10:02 LAUSpectrum 阅读(179) 评论(1) 推荐(0)

2019年7月24日

[code] Transformer For Summarization Source Code Reading [3]

摘要: 1. Label Smoothing 对于分类问题,我们希望模型输出的标签上概率分布,逼近于真实标签的one hot representation。带来的问题是: 1. 无法保证泛化 2. one hot表示鼓励将真实类别和其他类别之间的差距尽可能拉大,造成模型过分相信预测的类别 论文 When D 阅读全文

posted @ 2019-07-24 13:31 LAUSpectrum 阅读(421) 评论(0) 推荐(0)

2019年7月23日

[code] Transformer For Summarization Source Code Reading [2]

摘要: Basic Information 作者:李丕绩(腾讯AI Lab) 模型: "Transformer + copy mechanism for abstractive summarization" 数据集:CNN/Daily Mail Debug 1. run (main.py) 1. 指定变量e 阅读全文

posted @ 2019-07-23 22:07 LAUSpectrum 阅读(429) 评论(0) 推荐(0)

2019年7月22日

[code] Transformer For Summarization Source Code Reading [1]

摘要: Basic Information 作者:李丕绩(腾讯AI Lab) 模型: "Transformer + copy mechanism for abstractive summarization" 数据集:CNN/Daily Mail Parameters Model Structure 模型结构 阅读全文

posted @ 2019-07-22 23:08 LAUSpectrum 阅读(1076) 评论(7) 推荐(1)

上一页 1 2 3 4 5 6 下一页
 
博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3