摘要: 写在前面 ​ 文本分类是nlp中一个非常重要的任务,也是非常适合入坑nlp的第一个完整项目。虽然文本分类看似简单,但里面的门道好多好多,博主水平有限,只能将平时用到的方法和trick在此做个记录和分享,希望各位看官都能有所收获。并且尽可能提供给出简洁,清晰的代码实现。 ​ 本文主要讨论文本分类中处理 阅读全文
posted @ 2021-10-16 20:40 盛小贱吖 阅读(2933) 评论(0) 推荐(0) 编辑
摘要: 写在前面 ​ 文本分类是nlp中一个非常重要的任务,也是非常适合入坑nlp的第一个完整项目。虽然文本分类看似简单,但里面的门道好多好多,博主水平有限,只能将平时用到的方法和trick在此做个记录和分享,希望各位看官都能有所收获。并且尽可能提供给出简洁,清晰的代码实现。 ​ 本文采用的文本分类模型是基 阅读全文
posted @ 2021-10-11 21:12 盛小贱吖 阅读(5184) 评论(0) 推荐(0) 编辑
摘要: 写在前面 文本分类是nlp中一个非常重要的任务,也是非常适合入坑nlp的第一个完整项目。虽然文本分类看似简单,但里面的门道好多好多,作者水平有限,只能将平时用到的方法和trick在此做个记录和分享,希望大家看过都能有所收获,享受编程的乐趣。 第一部分 模型 Bert模型是Google在2018年10 阅读全文
posted @ 2021-10-10 13:49 盛小贱吖 阅读(4052) 评论(3) 推荐(0) 编辑
摘要: 写在前面 ​ 深度残差网络(Deep residual network, ResNet)自提出起,一次次刷新CNN模型在ImageNet中的成绩,解决了CNN模型难训练的问题。何凯明大神的工作令人佩服,模型简单有效,思想超凡脱俗。 ​ 直观上,提到深度学习,我们第一反应是模型要足够“深”,才可以提升 阅读全文
posted @ 2021-10-08 19:34 盛小贱吖 阅读(1399) 评论(0) 推荐(0) 编辑