摘要: 综合练习:学生课程分数 网盘下载sc.txt文件,分别用RDD操作、DataFrame操作和spark.sql执行SQL语句实现以下数据分析: 数据准备: 总共有多少学生? 总共开设了多少门课程? 每个学生选修了多少门课? 每门课程有多少个学生选? 每门课程>95分的学生人数 课程'Python'有 阅读全文
posted @ 2022-05-24 09:02 软工1901-吴兴 阅读(191) 评论(0) 推荐(0) 编辑
摘要: 1.请分析SparkSQL出现的原因,并简述SparkSQL的起源与发展 Hadoop刚开始出来的时候,使用的是hadoop自带的分布式计算系统MapReduce,但是MapReduce的使用难度较大,所以就开发了Hive,Hive编程用的是类SQL的HQL的语句,这样编程的难度就大大的降低了,Hi 阅读全文
posted @ 2022-05-10 16:31 软工1901-吴兴 阅读(45) 评论(0) 推荐(0) 编辑
摘要: 集合运算联系(union\intersection\subtract\cartesian) 内连接与外连接(join\left\rightOuterJoin\fullOuterJoin) 多个考勤文件,签到日期汇总,出勤次数统计 三、综合练习:学生课程分数 网盘下载sc.txt文件,通过RDD操作实 阅读全文
posted @ 2022-04-19 20:42 软工1901-吴兴 阅读(74) 评论(0) 推荐(0) 编辑
摘要: 一、词频统计 A.分步骤实现 1.准备文件读文件创建RDD 下载小说或长篇新闻稿 上传到hdfs上 2.分词文件传入 3.排除大小写,标点符号,停用词,长度小于2的词 排除标点符号: 大小写: 停用词: 长度小于2: 4.统计词频 5.排序 6.输出到文件 7.查看结果 B.一句话实现:文件入文件出 阅读全文
posted @ 2022-04-12 08:35 软工1901-吴兴 阅读(45) 评论(0) 推荐(0) 编辑
摘要: 一、 RDD创建 环境启动、文件准备: 1.从本地文件系统中加载数据创建RDD 2.从HDFS加载数据创建RDD 不同语句: 3.通过并行集合(列表)创建RDD ps:不知为何会存在一定乱序 二、 RDD操作 1.转换操作 1.filter: 2.map: 3.flatMap: 4.groupByK 阅读全文
posted @ 2022-03-28 18:27 软工1901-吴兴 阅读(29) 评论(0) 推荐(0) 编辑
摘要: 1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 组件介绍 1 . Spark Core:Spark的核心组件,其操作的数据对象是RDD(弹性分布式数据集)图中在Spark Core上面的四个组件都依赖于Spark Core,可以简单 阅读全文
posted @ 2022-03-11 20:10 软工1901-吴兴 阅读(53) 评论(0) 推荐(0) 编辑
摘要: 一、安装Spark 环境配置: 启动spark: 试运行python代码: 二、Python编程练习:英文文本的词频统计 准备文本文件 读文件 预处理:大小写,标点符号,停用词 分词 统计每个单词出现的次数 按词频大小排序 结果写文件 思路:先读取文件文本内容,使用循环将内容中的每一个标点符号替换为 阅读全文
posted @ 2022-03-06 17:23 软工1901-吴兴 阅读(38) 评论(0) 推荐(0) 编辑
摘要: 一.列举Hadoop生态的各个组件及其功能、以及各个组件之间的相互关系,以图呈现并加以文字描述 1.HDFS:它是Hadoop两大核心组成部分之一,提供了在廉价服务器集群中进行大规模分布式文件存储的能力。它具有很好的容错能力,可以兼容廉价的硬件设备。它采用了主从结构模型,一个HDFS集群包括一个名称 阅读全文
posted @ 2022-02-25 17:49 软工1901-吴兴 阅读(86) 评论(0) 推荐(0) 编辑