摘要: 1.请分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 原因:SparkSQL的前身Shark对于Hive的太多依赖(如采用Hive的语法解析器、查询优化器等等),制约了Spark的One Stack Rule Them All的既定方针,制约了Spark各个组件的相互集成,所以 阅读全文
posted @ 2022-06-05 23:48 常家铭 阅读(42) 评论(0) 推荐(0) 编辑
摘要: 补交作业7:https://www.cnblogs.com/a1308522073/p/16345662.html 网盘下载sc.txt文件,分别用RDD操作、DataFrame操作和spark.sql执行SQL语句实现以下数据分析 网盘下载sc.txt文件,创建RDD,并转换得到DataFrame 阅读全文
posted @ 2022-05-24 10:11 常家铭 阅读(53) 评论(0) 推荐(0) 编辑
摘要: 集合运算练习 union(), intersection(),subtract(), cartesian() 内连接与外连接 join(), leftOuterJoin(), rightOuterJoin(), fullOuterJoin() 多个考勤文件,签到日期汇总,出勤次数统计 三、综合练习: 阅读全文
posted @ 2022-04-19 16:59 常家铭 阅读(11) 评论(0) 推荐(0) 编辑
摘要: 一、词频统计 A. 分步骤实现 准备文件 下载小说或长篇新闻稿 上传到hdfs上 读文件创建RDD 分词 排除大小写lower(),map() 停用词,可网盘下载stopwords.txt,filter(), 长度小于2的词filter() 统计词频 按词频排序 输出到文件 查看结果 B. 一句话实 阅读全文
posted @ 2022-04-12 16:20 常家铭 阅读(12) 评论(0) 推荐(0) 编辑
摘要: 一、 RDD创建 1.从本地文件系统中加载数据创建RDD 2.从HDFS加载数据创建RDD 加载 停止hdfs 3.通过并行集合(列表)创建RDD 输入列表、字符串、生成数组 二、 RDD操作 转换操作 1. filter(func)传入lambda匿名函数显式定义函数 2.map(func) 显式 阅读全文
posted @ 2022-03-28 17:33 常家铭 阅读(34) 评论(0) 推荐(0) 编辑
摘要: 1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 组件介绍 1 . Spark Core:Spark的核心组件,其操作的数据对象是RDD(弹性分布式数据集)图中在Spark Core上面的四个组件都依赖于Spark Core,可以简单 阅读全文
posted @ 2022-03-13 14:01 常家铭 阅读(67) 评论(0) 推荐(0) 编辑
摘要: 一、安装Spark 1.检查基础环境hadoop,jdk 2.下载spark (已完成,略过) 3.解压,文件夹重命名、权限 (已完成,略过) 4.配置文件 (已完成,略过) 5.环境变量 6.试运行Python代码 二、Python编程练习:英文文本的词频统计 1.准备文本文件 2.读文件 pat 阅读全文
posted @ 2022-03-06 23:34 常家铭 阅读(31) 评论(0) 推荐(0) 编辑
摘要: 1.列举Hadoop生态的各个组件及其功能、以及各个组件之间的相互关系,以图呈现并加以文字描述。 Hadoop 的基础是 HDFS 和 Yarn,在此基础上有各种计算模型,如 MapReduce、Spark、HBase 等;而在计算模型上层,对应的是各种分布式计算辅助工具,如 Hive、Pig、Sq 阅读全文
posted @ 2022-02-22 10:37 常家铭 阅读(31) 评论(0) 推荐(0) 编辑