Mixture-of-Domain-Adapters: Decoupling and Injecting Domain Knowledge to Pre-trained Language Mod...
摘要:
### 1. Abstract 经过预训练的语言模型(PLM)表现出在通用领域理解文本的出色能力,同时在特定领域中表现不佳。**尽管在大型领域特定语料库上继续预训练是有效的,但调整领域上的所有参数是昂贵的**。在本文中,我们研究了是否可以通过只调整几个参数来有效地调整PLM。具体来说,我们将Tran 阅读全文
posted @ 2023-08-22 18:52
Tsukinousag1
阅读(504)
评论(0)
推荐(0)

浙公网安备 33010602011771号