会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
西西嘛呦
从自己能做到的开始,一件件来,缓慢而坚定地前进,尽力而为
博客园
首页
新随笔
联系
管理
2022年8月17日
基于bert训练自己的分词系统
摘要: 前言 在中文分词领域,已经有着很多优秀的工具,例如: jieba分词 SnowNLP 北京大学PKUse 清华大学THULAC HanLP FoolNLTK 哈工大LTP 斯坦福分词器CoreNLP BaiduLac 这里,我们不使用上述的工具,而是利用bert训练一个自己的分词器。 数据预处理 首
阅读全文
posted @ 2022-08-17 10:13 西西嘛呦
阅读(833)
评论(0)
推荐(0)
公告