10 期末大作业

https://www.cnblogs.com/ohbigshit/p/14549238.html 02.Spark架构与运行流程
https://www.cnblogs.com/ohbigshit/p/14854320.html 06.Spark SQL 及其DataFrame的基本操作
https://www.cnblogs.com/ohbigshit/p/14854303.html 07. 从RDD创建DataFrame
https://www.cnblogs.com/ohbigshit/p/14854300.html 09. spark连接mysql数据库
有部分是因为上传了忘记提交,有一部分不太懂所以做的慢,上传晚了。

大作业:

1.选择使用什么数据,有哪些字段,多大数据量。

数据:us-counties美新冠数据

字段:日期、国家、洲、病例、死亡数

2.准备分析哪些问题,可视化方式?(8个以上)

(1). 统计美国截止每日的累计确诊人数和累计死亡人数。做法是以date作为分组字段,对cases和deaths字段进行汇总统计。

(2). 统计美国每日的新增确诊人数和新增死亡人数。因为新增数=今日数-昨日数,所以考虑使用自连接,连接条件是t1.date = t2.date + 1,然后使用t1.totalCases – t2.totalCases计算该日新增。

(3). 统计截止5.19日,美国各州的累计确诊人数和死亡人数。首先筛选出5.19日的数据,然后以state作为分组字段,对cases和deaths字段进行汇总统计。

(4). 统计截止5.19日,美国确诊人数最多的十个州。对3)的结果DataFrame注册临时表,然后按确诊人数降序排列,并取前10个州。

(5). 统计截止5.19日,美国死亡人数最多的十个州。对3)的结果DataFrame注册临时表,然后按死亡人数降序排列,并取前10个州。

(6). 统计截止5.19日,美国确诊人数最少的十个州。对3)的结果DataFrame注册临时表,然后按确诊人数升序排列,并取前10个州。

(7). 统计截止5.19日,美国死亡人数最少的十个州。对3)的结果DataFrame注册临时表,然后按死亡人数升序排列,并取前10个州

统计截止5.19日,全美和各州的病死率。病死率 = 死亡数/确诊数,对3)的结果DataFrame注册临时表,然后按公式计算。

3.当前进展。

posted @ 2021-06-06 20:23  ohbigshit  阅读(44)  评论(0)    收藏  举报