摘要: 综合练习:学生课程分数 网盘下载sc.txt文件,创建RDD,并转换得到DataFrame >>> lines = spark.sparkContext.textFile('file:///home/hadoop/wc/sc.txt') >>> parts = lines.map(lambda x: 阅读全文
posted @ 2022-05-23 22:39 an23 阅读(60) 评论(0) 推荐(0) 编辑
摘要: 1.请分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 Spark SQL的前身是 Shark,Shark最初是美国加州大学伯克利分校的实验室开发的Spark生态系统的组件之一,它运行在Spark系统之上,Shark重用了Hive的工作机制,并直接继承了Hive的各个组件, Sh 阅读全文
posted @ 2022-05-10 09:32 an23 阅读(3) 评论(0) 推荐(0) 编辑
摘要: 集合运算练习 union(), intersection(),subtract(), cartesian() 内连接与外连接 join(), leftOuterJoin(), rightOuterJoin(), fullOuterJoin() 多个考勤文件,签到日期汇总,出勤次数统计 三、综合练习: 阅读全文
posted @ 2022-04-20 21:44 an23 阅读(6) 评论(0) 推荐(0) 编辑
摘要: 一、词频统计 A.分步骤实现 1.准备文件 1.下载小说或长篇新闻稿 2.上传到hdfs 启动hdfs 上传文件并查看 2.读文件创建RDD 创建SparkContext以及从文件系统中加载数据创建RDD 与原txt文件对比 3.分词 4.标点符号re.split(pattern,str),flat 阅读全文
posted @ 2022-04-12 09:31 an23 阅读(6) 评论(0) 推荐(0) 编辑
摘要: 一、 RDD创建 1.从本地文件系统中加载数据创建RDD 2.从HDFS加载数据创建RDD 加载 停止hdfs 3.通过并行集合(列表)创建RDD 输入列表、字符串、生成数组 二、 RDD操作 转换操作 1. filter(func)传入lambda匿名函数显式定义函数 2.map(func) 显式 阅读全文
posted @ 2022-03-27 17:27 an23 阅读(13) 评论(0) 推荐(1) 编辑
摘要: 1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 1. Spark Core Spark Core是整个BDAS的核心组件,是一种大数据分布式处理框架,不仅实现了MapReduce的算子map函数和reduce函数及计算模型,还提供如 阅读全文
posted @ 2022-03-13 00:15 an23 阅读(47) 评论(0) 推荐(0) 编辑
摘要: 一、安装Spark 1、检查基础环境hadoop,jdk 3、相关文件配置 4、环境配置 5、运行python代码 二、Python编程练习:英文文本的词频统计 1.准备文本文件 path='/home/hadoop/lsh.txt'with open(path) as f: text=f.read 阅读全文
posted @ 2022-03-07 11:03 an23 阅读(33) 评论(0) 推荐(0) 编辑
摘要: 1.列举Hadoop生态的各个组件及其功能、以及各个组件之间的相互关系,以图呈现并加文字描述。 1)HDFS(hadoop分布式文件系统) 是hadoop体系中数据存储管理的基础。他是一个高度容错的系统,能检测和应对硬件故障。 client:切分文件,访问HDFS,与namenode交互,获取文件位 阅读全文
posted @ 2022-02-22 10:50 an23 阅读(22) 评论(0) 推荐(0) 编辑