摘要: 论文信息: "论文" , "代码" 概述 随着深度学习的发展,许多大型的神经网络被提出并且获得了非常好的效果。尤其在NLP领域,预训练加微调几乎已经成为了一种新的范式。超大的参数量使得这些模型所向披靡,但同样也使得它们需要消耗大量计算资源。 有一系列模型压缩的方法被提出以解决这个问题,其中最著名的就 阅读全文
posted @ 2020-03-27 21:22 WeilongHu 阅读(663) 评论(0) 推荐(0) 编辑