摘要: 1.选择使用什么数据,有哪些字段,多大数据量。(暂定) 数据:中国疫情数据 字段:新增累计确诊人数、新增现有确诊人数、现有确诊人数、、累计确诊人数,死亡人数、死亡率,治愈人数,治愈率 数据量:2000 2.准备分析哪些问题,可视化方式?(8个以上)(暂定) (1)中国现有感染人数情况, 地图 (2) 阅读全文
posted @ 2021-06-06 20:46 GypsophiIas 阅读(36) 评论(0) 推荐(0) 编辑
摘要: spark连接mysql数据库 1、安装启动检查Mysql服务。 netstat -tunlp (3306) 2、spark 连接mysql驱动程序。 –cp /usr/local/hive/lib/mysql-connector-java-5.1.40-bin.jar /usr/local/spa 阅读全文
posted @ 2021-05-31 15:19 GypsophiIas 阅读(43) 评论(0) 推荐(0) 编辑
摘要: 一、用DataFrame的操作完成以下数据分析要求 每个分数+5分。 总共有多少学生? 总共开设了哪些课程? 每个学生选修了多少门课? 每门课程有多少个学生选? 每门课程大于95分的学生人数? Tom选修了几门课?每门课多少分? Tom的成绩按分数大小排序。 Tom的平均分。 求每门课的平均分,最高 阅读全文
posted @ 2021-05-27 16:51 GypsophiIas 阅读(44) 评论(0) 推荐(0) 编辑
摘要: 1.pandas df 与 spark df的相互转换 df_s=spark.createDataFrame(df_p) df_p=df_s.toPandas() 2. Spark与Pandas中DataFrame对比 http://www.lining0806.com/spark%E4%B8%8E 阅读全文
posted @ 2021-05-13 22:06 GypsophiIas 阅读(42) 评论(0) 推荐(0) 编辑
摘要: 1.Spark SQL的前身是 Shark,Shark最初是美国加州大学伯克利分校的实验室开发的Spark生态系统的组件之一,它运行在Spark系统之上,Shark重用了Hive的工作机制,并直接继承了Hive的各个组件, Shark将SQL语句的转换从MapReduce作业替换成了Spark作业, 阅读全文
posted @ 2021-05-09 22:30 GypsophiIas 阅读(38) 评论(0) 推荐(0) 编辑
摘要: 1. 用Pyspark自主实现词频统计过程。 >>> s = txt.lower().split()>>> dd = {}>>> for word in s:... if word not in dd:... dd[word] = 1... else:... dd[word] = dic[word] 阅读全文
posted @ 2021-04-22 20:52 GypsophiIas 阅读(56) 评论(0) 推荐(0) 编辑
摘要: 学生课程分数案例 总共有多少学生?map(), distinct(), count() 开设了多少门课程? 每个学生选修了多少门课?map(), countByKey() 每门课程有多少个学生选?map(), countByValue() Tom选修了几门课?每门课多少分?filter(), map 阅读全文
posted @ 2021-04-16 16:57 GypsophiIas 阅读(47) 评论(0) 推荐(0) 编辑
摘要: 一、词频统计: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words flatmap() 3.全部转换为小写 lower() 4.去掉长度小于3的单词 filter() 5.去掉停用词 6.转换成键值对 map() 7.统计词频 reduceByKey() 二、学生课程分 阅读全文
posted @ 2021-04-03 21:41 GypsophiIas 阅读(49) 评论(0) 推荐(0) 编辑
摘要: 一、filter,map,flatmap练习: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words 3.全部转换为小写 4.去掉长度小于3的单词 5.去掉停用词 二、groupByKey练习 6.练习一的生成单词键值对 7.对单词进行分组 8.查看分组结果 阅读全文
posted @ 2021-03-30 20:34 GypsophiIas 阅读(34) 评论(0) 推荐(0) 编辑
摘要: 1. 准备文本文件从文件创建RDD lines=sc.textFile()筛选出含某个单词的行 lines.filter()lambda 参数:条件表达式 2. 生成单词的列表从列表创建RDD words=sc.parallelize()筛选出长度大于2 的单词 words.filter() 阅读全文
posted @ 2021-03-27 13:57 GypsophiIas 阅读(37) 评论(0) 推荐(0) 编辑