摘要:
1.安装Spark 检查基础环境hadoop,jdk 配置文件 环境变量 运行python代码 2.python编程练习 准备文本 读文件 预处理:大小写,标点符号,停用词分词统计每个单词出现的次数按词频大小排序结果写文件 with open("data.txt", "r") as f: text= 阅读全文
posted @ 2022-03-04 15:21
yanguanx
阅读(45)
评论(0)
推荐(0)