摘要: 1.选择使用什么数据,有哪些字段,多大数据量。 数据:全球国家疫情数据 字段:国家、新增人数、现有人数、死亡人数、治愈人数、累计人数 数据量:215条 2.准备分析哪些问题,可视化方式?(8个以上) (1)、全球国家现有感染人数情况, 地图 (2)、中国、美国、印度现有感染人数情况, 柱状图 (3) 阅读全文
posted @ 2021-06-04 17:17 Frank05 阅读(76) 评论(0) 推荐(0) 编辑
摘要: 安装启动检查Mysql服务。 netstat -tunlp (3306) spark 连接mysql驱动程序。 –cp /usr/local/hive/lib/mysql-connector-java-5.1.40-bin.jar /usr/local/spark/jars 启动 Mysql she 阅读全文
posted @ 2021-05-28 21:53 Frank05 阅读(44) 评论(0) 推荐(0) 编辑
摘要: 读学生课程分数文件chapter4-data01.txt,创建DataFrame。 一、用DataFrame的操作完成以下数据分析要求 每个分数+5分。 总共有多少学生? 总共开设了哪些课程? 每个学生选修了多少门课? 每门课程有多少个学生选? 每门课程大于95分的学生人数? Tom选修了几门课?每 阅读全文
posted @ 2021-05-25 13:00 Frank05 阅读(119) 评论(0) 推荐(0) 编辑
摘要: 1.pandas df 与 spark df的相互转换 df_s=spark.createDataFrame(df_p) df_p=df_s.toPandas() 2. Spark与Pandas中DataFrame对比 http://www.lining0806.com/spark%E4%B8%8E 阅读全文
posted @ 2021-05-14 09:52 Frank05 阅读(33) 评论(0) 推荐(0) 编辑
摘要: 1.Spark SQL出现的 原因是什么? Spark SQL是Spark用来处理结构化数据的一个模块,它提供了一个叫作Data Frame的编程抽象结构数据模型(即带有Schema信息的RDD),Spark SQL作为分布式SQL查询引擎,让用户可以通过SQL、DataFrame API和Data 阅读全文
posted @ 2021-05-07 22:27 Frank05 阅读(52) 评论(0) 推荐(0) 编辑
摘要: 1、用Pyspark自主实现词频统计过程。 2. 并比较不同计算框架下编程的优缺点、适用的场景。 –Python –MapReduce –Hive –Spark Mapreduce,它最本质的两个过程就是Map和Reduce,Map的应用在于我们需要数据一对一的元素的映射转换,比如说进行截取,进行过 阅读全文
posted @ 2021-04-23 11:43 Frank05 阅读(81) 评论(0) 推荐(0) 编辑
摘要: 一、词频统计: 读文本文件生成RDD lines 将一行一行的文本分割成单词 words flatmap() 全部转换为小写 lower() 去掉长度小于3的单词 filter() 去掉停用词 转换成键值对 map() 统计词频 reduceByKey() 按字母顺序排序 按词频排序 二、学生课程分 阅读全文
posted @ 2021-04-12 20:46 Frank05 阅读(81) 评论(0) 推荐(0) 编辑
摘要: 一、词频统计: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words flatmap() 3.全部转换为小写 lower() 4.去掉长度小于3的单词 filter() 5.去掉停用词 6.转换成键值对 map() 7.统计词频 reduceByKey() 二、学生课程分 阅读全文
posted @ 2021-04-05 18:42 Frank05 阅读(47) 评论(0) 推荐(0) 编辑
摘要: 一、filter,map,flatmap练习: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words 3.全部转换为小写 4.去掉长度小于3的单词 5.去掉停用词 二、groupByKey练习 6.练习一的生成单词键值对 7.对单词进行分组 8.查看分组结果 阅读全文
posted @ 2021-03-29 18:45 Frank05 阅读(29) 评论(0) 推荐(0) 编辑
摘要: 1.准备文本文件 从文件创建RDD lines=sc.textFile() 筛选出含某个单词的行 lines.filter() lambda 参数:条件表达式 2. 生成单词的列表 从列表创建RDD words=sc.parallelize() 筛选出长度大于10 的单词 words.filter( 阅读全文
posted @ 2021-03-26 18:20 Frank05 阅读(41) 评论(0) 推荐(0) 编辑