摘要:
背景 基于前两篇文章数据预处理和数据集构造的过程后,可以开始针对我们的文本摘要任务进行处理了。这里选用的是经典的seq2seq+attention模型,作为我们的baseline,先完成一个跑通吧。后续基于seq2seq进行其他改进。 核心内容  seq2seq模型的理论,此处不再介绍。简 阅读全文
posted @ 2021-06-26 17:30
温良Miner
阅读(1020)
评论(0)
推荐(0)
浙公网安备 33010602011771号