会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
NLP论文解读
博客园
首页
新随笔
联系
订阅
管理
[置顶]
论文解读:知识图谱融入预训练模型
摘要: 论文解读:知识图谱融入预训练模型
阅读全文
posted @ 2022-01-10 19:03 NLP论文解读
阅读(729)
评论(0)
推荐(0)
2022年3月15日
一文带你了解知识图谱融入预训练模型哪家强?九大模型集中放送
摘要: ©原创作者 | 疯狂的Max 01 预训练模型与知识图谱 1.预训练模型 近年来,随着语言模型的技术发展,其在NLP领域获得巨大的成功,业界SOTA的前沿模型也大多是Transformer结构模型的变体。 Transformer结构模型使用注意力机制来获取文本中长距离字符间的依赖关系,包括对其进行优
阅读全文
posted @ 2022-03-15 19:08 NLP论文解读
阅读(1764)
评论(0)
推荐(0)
2022年3月14日
NLP论文解读:无需模板且高效的语言微调模型(下)
摘要: ©原创作者 | 苏菲 论文题目: Prompt-free and Efficient Language Model Fine-Tuning 论文作者: Rabeeh Karimi Mahabadi 论文地址: https://openreview.net/pdf?id=6o5ZEtqP2g 02 P
阅读全文
posted @ 2022-03-14 19:02 NLP论文解读
阅读(334)
评论(0)
推荐(0)
2022年3月11日
NLP论文解读:无需模板且高效的语言微调模型(上)
摘要: ©原创作者 | 苏菲 论文题目: Prompt-free and Efficient Language Model Fine-Tuning 论文作者: Rabeeh Karimi Mahabadi 论文地址: https://openreview.net/pdf?id=6o5ZEtqP2g 提示学习
阅读全文
posted @ 2022-03-11 20:11 NLP论文解读
阅读(421)
评论(0)
推荐(0)
2022年3月10日
基于BERT Adapter的词汇增强型中文序列标注模型
摘要: ©原创作者 | 疯狂的Max 论文Lexicon Enhanced Chinese Sequence Labelling Using BERT Adapter 解读 01 背景与动机 近年来,多项研究致力于将词汇信息融入中文预训练模型中以提升命名实体识别、分词和词性标注等序列标注类任务的效果。 但其
阅读全文
posted @ 2022-03-10 19:14 NLP论文解读
阅读(342)
评论(0)
推荐(0)
2022年3月9日
CoLAKE: 如何实现非结构性语言和结构性知识表征的同步训练
摘要: ©原创作者 | 疯狂的Max 论文CoLAKE: Contextualized Language and Knowledge Embedding 解读 01 背景与动机 随着预训练模型在NLP领域各大任务大放异彩,一系列研究都致力于将外部知识融入大规模预训练模型,比如ERNIE[1]和KnowBER
阅读全文
posted @ 2022-03-09 19:02 NLP论文解读
阅读(347)
评论(0)
推荐(0)
2022年3月8日
GPT-3被超越?解读低能耗、高性能的GlaM模型
摘要: ©原创作者 | LJ GLaM: Efficient Scaling of Language Models with Mixture-of-Experts https://arxiv.org/pdf/2112.06905.pdf 01 摘要 这是上个月谷歌刚刚在arxiv发布的论文,证明了一种能sc
阅读全文
posted @ 2022-03-08 21:23 NLP论文解读
阅读(970)
评论(0)
推荐(0)
2022年3月7日
FaE:基于符号知识的适应性和可解释的神经记忆
摘要: ©原创作者 | 朱林 论文解读: Facts as Experts: Adaptable and Interpretable Neural Memory over Symbolic Knowledge 论文作者: Google Research 论文地址: https://arxiv.org/abs
阅读全文
posted @ 2022-03-07 19:05 NLP论文解读
阅读(511)
评论(0)
推荐(0)
2022年3月6日
生成式预训练语言模型能否视作闭卷问答的知识库?
摘要: ©原创作者 | 朱林 论文解读: Can Generative Pre-trained Language Models Serve as Knowledge Bases for Closed-book QA? 论文作者: Cunxiang Wang, Pai Liu, Yue Zhang 论文地址:
阅读全文
posted @ 2022-03-06 19:42 NLP论文解读
阅读(570)
评论(0)
推荐(0)
2022年3月5日
抛弃模板,一种Prompt Learning用于命名实体识别任务的新范式
摘要: ©原创作者 | 王翔 论文名称: Template-free Prompt Tuning for Few-shot NER 文献链接: https://arxiv.org/abs/2109.13532 01 前言 1.论文的相关背景 Prompt Learning通过设计一组合适的prompt将下游
阅读全文
posted @ 2022-03-05 20:29 NLP论文解读
阅读(1400)
评论(0)
推荐(0)
2022年3月4日
知识增广的预训练语言模型K-BERT:将知识图谱作为训练语料
摘要: ©原创作者 | 杨健 论文标题: K-BERT: Enabling Language Representation with Knowledge Graph 收录会议: AAAI 论文链接: https://ojs.aaai.org/index.php/AAAI/article/view/5681
阅读全文
posted @ 2022-03-04 13:48 NLP论文解读
阅读(677)
评论(0)
推荐(0)
下一页
公告