摘要: 大作业: 1.选择使用什么数据,有哪些字段,多大数据量。 答:us-counties美新冠数据;字段:date,county,state,cases,deaths;数据量:158981条 2.准备分析哪些问题?(8个以上) 1.计算每日的确诊病例数和死亡数 2.统计截止5.19日 美国各州的累计确诊 阅读全文
posted @ 2021-06-07 19:50 不吃外卖 阅读(35) 评论(0) 推荐(0) 编辑
摘要: 读学生课程分数文件chapter4-data01.txt,创建DataFrame。 用DataFrame的操作或SQL语句完成以下数据分析要求,并和用RDD操作的实现进行对比: 每个分数+5分。 总共有多少学生? 总共开设了哪些课程? 每个学生选修了多少门课? 每门课程有多少个学生选? 每门课程大于 阅读全文
posted @ 2021-05-20 18:55 不吃外卖 阅读(38) 评论(0) 推荐(0) 编辑
摘要: 1.pandas df 与 spark df的相互转换 df_s=spark.createDataFrame(df_p) df_p=df_s.toPandas() 2. Spark与Pandas中DataFrame对比 http://www.lining0806.com/spark%E4%B8%8E 阅读全文
posted @ 2021-05-14 21:14 不吃外卖 阅读(78) 评论(0) 推荐(0) 编辑
摘要: 一、词频统计: 读文本文件生成RDD lines 将一行一行的文本分割成单词 words flatmap() 全部转换为小写 lower() 去掉长度小于3的单词 filter() 去掉停用词 转换成键值对 map() 统计词频 reduceByKey() 8.按字母顺序排序 sortBy(f) 9 阅读全文
posted @ 2021-04-22 20:00 不吃外卖 阅读(43) 评论(0) 推荐(0) 编辑
摘要: 一、词频统计: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words flatmap() 3.全部转换为小写 lower() 4.去掉长度小于3的单词 filter() 5.去掉停用词 6.转换成键值对 map() 7.统计词频 reduceByKey() 二、学生课程分 阅读全文
posted @ 2021-04-05 12:39 不吃外卖 阅读(42) 评论(0) 推荐(0) 编辑
摘要: 一、filter,map,flatmap练习: 1.读文本文件生成RDD lines lines = sc.textFile('file:///home/hadoop/word.txt') lines.collect() 2.将一行一行的文本分割成单词 words words=lines.flatM 阅读全文
posted @ 2021-03-31 16:59 不吃外卖 阅读(49) 评论(0) 推荐(0) 编辑
摘要: 1. 准备文本文件: 从文件创建RDD lines=sc.textFile(): 筛选出含某个单词的行 lines.filter(),lambda 参数:条件表达式: 2. 生成单词的列表: 从列表创建RDD words=sc.parallelize(): 筛选出长度大于2 的单词 words.fi 阅读全文
posted @ 2021-03-27 22:03 不吃外卖 阅读(24) 评论(0) 推荐(0) 编辑
摘要: HDFSHDFS(Hadoop分布式文件系统)源自于Google的GFS论文,发表于2003年10月,HDFS是GFS的实现版。HDFS是Hadoop体系中数据存储管理的基础,它是一个高度容错的系统,能检测和应对硬件故障,在低成本的通用硬件上运行。HDFS简化了文件的一次性模型,通过流式数据访问,提 阅读全文
posted @ 2021-03-13 20:27 不吃外卖 阅读(49) 评论(0) 推荐(0) 编辑
摘要: 1. 2 3. 4. 阅读全文
posted @ 2020-12-12 15:18 不吃外卖 阅读(74) 评论(0) 推荐(0) 编辑
摘要: 1..准备本地txt文件 2.启动hadoop,启动hive 3.创建数据库,创建文本表 4.映射本地文件的数据到文本表中 5..hql语句进行词频统计交将结果保存到结果表中。 6.查看统计结果 二。 1.准备电子书或其它大的文本文件 2.将文本文件上传到HDFS上 3.创建文本表 4.映射HDFS 阅读全文
posted @ 2020-12-06 17:58 不吃外卖 阅读(42) 评论(0) 推荐(0) 编辑