摘要: ElasticSearch分词器 所谓的分词就是通过tokenizer(分词器)将一个字符串拆分为多个独立的tokens(词元-独立的单词),然后输出为tokens流的过程。 例如"my name is HanMeiMei"这样一个字符串就会被默认的分词器拆分为[my,name,is HanMeiM 阅读全文
posted @ 2024-06-13 14:06 普信男孩阿洲 阅读(201) 评论(0) 推荐(0)