python 多进程jieba分词,高效分词,multiprocessing
自然语言任务经常使用jieba分词,数据量大时怎么加速,jieba分词不支持使用asyncio异步加速,使用multiprocessing还是可以的
import jieba
import jieba.analyse
import multiprocessing
# 加载自定义词典
jieba.load_userdict("user_dic.txt")
jieba.load_userdict("cate_group.txt")
jieba.analyse.set_stop_words('stopwords_v1.txt')
def process_text(text):
# 分词
words = jieba.cut(text, cut_all=True)
# 过滤长度小于2或大于10的词和纯数字的词
filtered_words = [w for w in words if len(w) >= 2 and len(w) <= 10 and not w.isdigit()]
# 返回分词结果
return filtered_words
# 创建进程池
pool = multiprocessing.Pool()
# 处理文本列表
# texts = ["这是一段测试文本", "这是另一段测试文本"]
texts = data["new_text"]
results = pool.map(process_text, texts)
# 输出结果
results
结果:
[['估值', '有待', '修复', '煤炭', '平均', '市盈率', '美元'], ['国产', '医疗', '医疗器械', '器械', '行业', '发展', '迅速', '作为', '国内', '最大', '医疗', '医疗器械', '器械', '企业', '基本', '一枝', '一枝独秀', '独秀'], ['今日', '上海', '现货'], ['消息', '准备'],
多思考也是一种努力,做出正确的分析和选择,因为我们的时间和精力都有限,所以把时间花在更有价值的地方。

浙公网安备 33010602011771号