摘要:
学习笔记1 学习笔记2 RoBERTa: A Robustly Optimized BERT Pretraining Approach(一种鲁棒优化的 BERT预训练方法) 细读,半天 Motivation 目前自训练方法例如Elmo,GPT,Bert,XLNet在NLP领域取得了很不错的成绩,但是 阅读全文
posted @ 2020-10-18 22:53
douzujun
阅读(764)
评论(0)
推荐(0)
摘要:
Shallow Convolutional Neural Network for Implicit Discourse Relation Recognition 略读,科普,1h Motivation 浅层卷积神经网络进行隐式篇章关系识别,浅层结构减轻了过拟合问题,而卷积和非线性操作有助于保持我们的 阅读全文
posted @ 2020-10-18 17:28
douzujun
阅读(161)
评论(0)
推荐(0)
摘要:
Towards Cross-Domain PDTB-Style Discourse Parsing(2014) 走向跨域的PDTB式篇章分析,1h,速读 Motivation Discourse Relation Parsing是为了理解句子边界以外的文本。 文献表明,篇章连接词检测 和 篇章关系s 阅读全文
posted @ 2020-10-18 16:31
douzujun
阅读(146)
评论(0)
推荐(0)