posted @ 2018-03-28 20:12 170何强 阅读(118) 评论(0) 推荐(0) 编辑
摘要:
下载一长篇中文文章。 从文件读取待分析文本。 news = open('gzccnews.txt','r',encoding = 'utf-8') 安装与使用jieba进行中文分词。 pip install jieba import jieba list(jieba.lcut(news)) 生成词频 阅读全文
posted @ 2018-03-28 20:12 170何强 阅读(118) 评论(0) 推荐(0) 编辑
posted @ 2018-03-21 13:05 170何强 阅读(134) 评论(0) 推荐(0) 编辑
posted @ 2018-03-15 13:24 170何强 阅读(87) 评论(0) 推荐(0) 编辑
posted @ 2018-03-13 22:19 170何强 阅读(109) 评论(0) 推荐(0) 编辑
posted @ 2018-03-06 11:41 170何强 阅读(93) 评论(0) 推荐(0) 编辑
posted @ 2016-12-17 22:08 170何强 阅读(106) 评论(0) 推荐(0) 编辑
posted @ 2016-10-28 20:26 170何强 阅读(107) 评论(1) 推荐(0) 编辑
posted @ 2016-10-14 16:00 170何强 阅读(109) 评论(4) 推荐(0) 编辑
posted @ 2016-09-30 16:00 170何强 阅读(108) 评论(0) 推荐(0) 编辑
Copyright © 2022 170何强
Powered by .NET 6 on Kubernetes