安装Spark与Python练习
一、安装Spark
- 检查基础环境hadoop,jdk
![]()
- 下载spark
- 解压,文件夹重命名、权限(已安装没有图)
- 配置文件(已安装没有图)
- 环境变量(已安装没有图)
6.试运行Python代码
二、Python编程练习:英文文本的词频统计
思想
- 准备文本文件
- 读文件
- 预处理:大小写,标点符号,停用词
- 分词
- 统计每个单词出现的次数
- 按词频大小排序
- 结果写文件
1 path='/usr/local/spark/wc/f1.txt' 2 with open(path) as f: 3 text=f.read() 4 words = text.split() 5 wc={} 6 for word in words: 7 wc[word]=wc.get(word,0)+1 8 wclist=list(wc.items()) 9 wclist.sort(key=lambda x:x[1],reverse=True) 10 print(wclist)


浙公网安备 33010602011771号