摘要: 1.选择使用什么数据,有哪些字段,多大数据量。 美国新冠肺炎疫情数据集 字段:累计确诊人数、累计死亡人数、新增确诊人数、新增死亡人数、各州累计确诊人数、各州累计死亡人数和美国各州 2.准备分析哪些问题?(8个以上) 美国每日的累计确诊病例数和死亡数 美国每日的新增确诊病例数 美国每日的新增死亡病例数 阅读全文
posted @ 2021-06-07 21:22 金腰带小拳石 阅读(40) 评论(0) 推荐(0) 编辑
摘要: 安装启动检查Mysql服务。 spark 连接mysql驱动程序。 启动 Mysql shell,新建数据库spark,表student。 create database spark; use spark; create table student (id int(4), name char(20) 阅读全文
posted @ 2021-05-30 19:49 金腰带小拳石 阅读(53) 评论(0) 推荐(0) 编辑
摘要: 一、用SQL语句完成数据分析要求 ###生成“表头” from pyspark.sql.types import IntegerType,StringType,StructField,StructType from pyspark.sql import Row fields = [StructFie 阅读全文
posted @ 2021-05-18 20:55 金腰带小拳石 阅读(42) 评论(0) 推荐(0) 编辑
摘要: 1.pandas df 与 spark df的相互转换 df_s=spark.createDataFrame(df_p) df_p=df_s.toPandas() 2. Spark与Pandas中DataFrame对比 http://www.lining0806.com/spark%E4%B8%8E 阅读全文
posted @ 2021-05-14 00:00 金腰带小拳石 阅读(63) 评论(0) 推荐(0) 编辑
摘要: 1.Spark SQL出现的 原因是什么? 2.用spark.read 创建DataFrame 3.观察从不同类型文件创建DataFrame有什么异同? 4.观察Spark的DataFrame与Python pandas的DataFrame有什么异同? Spark SQL DataFrame的基本操 阅读全文
posted @ 2021-05-10 13:10 金腰带小拳石 阅读(70) 评论(0) 推荐(0) 编辑
摘要: 一、词频统计: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words flatmap() lines=sc.textFile("file:///usr/local/spark/mycode/wordcount/word.txt") words = lines.flatMa 阅读全文
posted @ 2021-04-17 19:48 金腰带小拳石 阅读(59) 评论(0) 推荐(0) 编辑
摘要: 一、词频统计: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words flatmap() lines=sc.textFile("file:///usr/local/spark/mycode/wordcount/word.txt") words = lines.flatMa 阅读全文
posted @ 2021-04-05 00:21 金腰带小拳石 阅读(112) 评论(0) 推荐(0) 编辑
摘要: 一、filter,map,flatmap练习: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words 3.全部转换为小写 4.去掉长度小于3的单词 5.去掉停用词 二、groupByKey练习 6.练习一的生成单词键值对 7.对单词进行分组 8.查看分组结果 学生科目成绩 阅读全文
posted @ 2021-03-30 14:05 金腰带小拳石 阅读(53) 评论(0) 推荐(0) 编辑
摘要: 1. 准备文本文件从文件创建RDD lines=sc.textFile()筛选出含某个单词的行 lines.filter()lambda 参数:条件表达式 2. 生成单词的列表从列表创建RDD words=sc.parallelize()筛选出长度大于2 的单词 words.filter() 3. 阅读全文
posted @ 2021-03-27 19:59 金腰带小拳石 阅读(25) 评论(0) 推荐(0) 编辑
摘要: 1. 阐述Hadoop生态系统中,HDFS, MapReduce, Yarn, Hbase及Spark的相互关系,为什么要引入Yarn和Spark。 Hadoop是一个能够对大量数据进行分布式处理的软件框架。具有可靠、高效、可伸缩的特点。 Hadoop的核心是HDFS和MapReduce,hadoo 阅读全文
posted @ 2021-03-12 15:51 金腰带小拳石 阅读(72) 评论(0) 推荐(0) 编辑