摘要: 网盘下载sc.txt文件,分别用RDD操作、DataFrame操作和spark.sql执行SQL语句实现以下数据分析: 0. 创建RDD,并转换为DataFrame;scm持久化;创建spark.sql临时表等预处理: 总共有多少学生? RDD: DataFrame: spark.sql: 总共开设 阅读全文
posted @ 2022-05-23 21:02 郑在亮 阅读(91) 评论(0) 推荐(0) 编辑
摘要: 1.请分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 因为关系数据库已经很流行,而且关系数据库在大数据时代已经不能满足要求。首先,用户需要从不同数据源执行各种操作,包括结构化、半结构化和非结构化数据。其次,用户需要执行高级分析,比如机器学习和图像处理。在实际大数据应用中,经常需 阅读全文
posted @ 2022-04-30 15:45 郑在亮 阅读(35) 评论(0) 推荐(0) 编辑
摘要: 集合运算练习 union(), intersection(),subtract(), cartesian() 内连接与外连接 join(), leftOuterJoin(), rightOuterJoin(), fullOuterJoin() 多个考勤文件,签到日期汇总,出勤次数统计 三、综合练习: 阅读全文
posted @ 2022-04-18 18:32 郑在亮 阅读(37) 评论(0) 推荐(0) 编辑
摘要: 一、词频统计 A.分步骤实现 1.准备文件 1.下载小说或长篇新闻稿 2.上传到hdfs 启动hdfs 上传文件并查看 2.读文件创建RDD 创建SparkContext以及从文件系统中加载数据创建RDD 与原txt文件对比 3.分词 4.标点符号re.split(pattern,str),flat 阅读全文
posted @ 2022-03-30 20:17 郑在亮 阅读(47) 评论(0) 推荐(0) 编辑
摘要: 一、 RDD创建 1.从本地文件系统中加载数据创建RDD 创建SparkContext以及从文件系统中加载数据创建RDD 与原txt文件对比 2.从HDFS加载数据创建RDD 启动hdfs 上传文件 查看文件 加载 停止hdfs 3.通过并行集合(列表)创建RDD 输入列表、字符串、生成数组 二、 阅读全文
posted @ 2022-03-22 19:23 郑在亮 阅读(200) 评论(0) 推荐(0) 编辑
摘要: 1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 目前,Spark生态系统已经发展成为一个可应用于大规模数据处理的统一分析引擎,它是基于内存计算的大数据并行计算框架,适用于各种各样的分布式平台系统。在Spark生态圈中包含了Spark 阅读全文
posted @ 2022-03-08 09:17 郑在亮 阅读(105) 评论(0) 推荐(0) 编辑
摘要: 一、安装Spark 1.检查基础环境hadoop,jdk 2.下载spark 由于上学期已经下载好了Spark,这里没有下载过程的截图 3.配置文件 4.配置环境变量 5.运行 二、Python编程练习:英文文本的词频统计 # CalHamletV1.py def getText(): txt = 阅读全文
posted @ 2022-03-04 16:21 郑在亮 阅读(41) 评论(0) 推荐(0) 编辑
摘要: 一.列举Hadoop生态的各个组件及其功能、以及各个组件之间的相互关系,以图呈现并加以文字描述。 1.HDFS分布式文件系统 hadoop分布式文件系统HDFS是针对谷歌分布式文件系统(Google File System,GFS)的开源实现,它是Hadoop两大核心组成部分之一,提供了在廉价服务器 阅读全文
posted @ 2022-02-22 11:19 郑在亮 阅读(64) 评论(0) 推荐(0) 编辑