摘要: 1. 请分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 1.1 出现原因 SparkSQL的前身是Shark,是用来给MapReduce的技术人员提供快速上手的工具。 Hive是早期唯一运行在Hadoop上的SQL-on-Hadoop工具,但MapReduce计算过程中大量的中 阅读全文
posted @ 2022-05-11 15:02 温宇健 阅读(51) 评论(0) 推荐(0)
摘要: 1 阅读全文
posted @ 2022-04-14 15:43 温宇健 阅读(24) 评论(0) 推荐(0)
摘要: 集合运算练习 union(), intersection(),subtract(), cartesian() 内连接与外连接 join(), leftOuterJoin(), rightOuterJoin(), fullOuterJoin() 多个考勤文件,签到日期汇总,出勤次数统计 三、综合练习: 阅读全文
posted @ 2022-04-14 14:59 温宇健 阅读(39) 评论(0) 推荐(0)
摘要: 一、词频统计 A. 分步骤实现 1.准备文件 1.下载小说或长篇新闻稿 2.上传到hdfs上 2.读文件创建RDD 3.分词 4.排除大小写lower(),map() 标点符号re.split(pattern,str),flatMap(), 停用词,可网盘下载stopwords.txt,filter 阅读全文
posted @ 2022-04-07 04:27 温宇健 阅读(64) 评论(0) 推荐(0)
摘要: 一、 RDD创建 1.从本地文件系统中加载数据创建RDD 2.从HDFS加载数据创建RDD 启动hdfs 上传文件 查看文件 加载 停止hdfs 3.通过并行集合(列表)创建RDD 输入列表 字符串 numpy生成数组 二、 RDD操作 转换操作 1.filter(func) 显式定义函数 lamb 阅读全文
posted @ 2022-03-21 22:36 温宇健 阅读(65) 评论(0) 推荐(0)
摘要: 1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 组件介绍1 . Spark Core:Spark的核心组件,其操作的数据对象是RDD(弹性分布式数据集),图中在Spark Core上面的四个组件都依赖于Spark Core,可以简单 阅读全文
posted @ 2022-03-15 18:32 温宇健 阅读(64) 评论(0) 推荐(0)
摘要: 一、安装Spark 检查基础环境hadoop,jdk 下载spark 解压,文件夹重命名、权限 配置文件 环境变量 试运行Python代码 二、Python编程练习:英文文本的词频统计 准备文本文件 读文件 预处理:大小写,标点符号,停用词 分词 统计每个单词出现的次数 按词频大小排序 结果写文件 阅读全文
posted @ 2022-03-08 12:53 温宇健 阅读(41) 评论(0) 推荐(0)
摘要: 1.列举Hadoop生态的各个组件及其功能、以及各个组件之间的相互关系,以图呈现并加以文字描述。 1.HDFS(分布式文件系统) HDFS是Hadoop两大核心组成部分之一,提供了在廉价服务器集群中进行大规模分布式文件存储的能力。 2.YARN(资源调度和管理框架) YARN 是负责集群资源调度管理 阅读全文
posted @ 2022-03-01 17:05 温宇健 阅读(73) 评论(0) 推荐(0)