摘要: 网盘下载sc.txt文件,分别创建RDD、DataFrame和临时表/视图; 1.创建RDD 2. 并转换得到DataFrame 3.注册为临时表 4.导包 分别用RDD操作、DataFrame操作和spark.sql执行SQL语句实现以下数据分析: 1.总共有多少学生? 2.总共开设了多少门课程? 阅读全文
posted @ 2022-05-27 09:16 蓝幻汐 阅读(86) 评论(0) 推荐(0)
摘要: 1.分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 SparkSQL出现的原因 hive是shark的前身,shark是sparkSQL的前身,sparkSQL产生的根本原因是其完全脱离了hive的限制,hive是hive SQL转换成MapReduce然后提交到集群上执行,大 阅读全文
posted @ 2022-05-11 14:54 蓝幻汐 阅读(21) 评论(0) 推荐(0)
摘要: 6. RDD综合练习:更丰富的操作 集合运算练习 union(), intersection(),subtract(), cartesian() 内连接与外连接 join(), leftOuterJoin(), rightOuterJoin(), fullOuterJoin() 多个考勤文件,签到日 阅读全文
posted @ 2022-04-20 16:28 蓝幻汐 阅读(41) 评论(0) 推荐(0)
摘要: 一、词频统计 A. 分步骤实现 1、准备文件 下载小说或长篇新闻稿 上传到hdfs上 2、读文件创建RDD 3、分词 4、排除大小写lower(),map() 标点符号re.split(pattern,str),flatMap(), 停用词,stopwords.txt,filter(), 长度小于2 阅读全文
posted @ 2022-04-07 19:46 蓝幻汐 阅读(39) 评论(0) 推荐(0)
摘要: 一、 RDD创建 1. 从本地文件系统中加载数据创建RDD sc:SparkContext的创建 从文件系统中加载数据创建RDD >> lines = sc.textFile("file://root/DesKtop/my.txt") >> lines >> lines.foreach(print) 阅读全文
posted @ 2022-03-29 15:02 蓝幻汐 阅读(58) 评论(0) 推荐(0)
摘要: 1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 1. Spark CoreSpark Core是整个BDAS的核心组件,是一种大数据分布式处理框架,不仅实现了MapReduce的算子map函数和reduce函数及计算模型,还提供如f 阅读全文
posted @ 2022-03-14 20:49 蓝幻汐 阅读(28) 评论(0) 推荐(0)
摘要: 1、检查基础环境hadoop,jdk 启动hdfs查看进程 2、下载spark(省略,原来已下好Spark) 3、解压,文件夹重命名、权限(省略,原来已下好Spark) 4、配置文件 配置Spark的classPath,并加上最后一行代码 5、环境变量 6、试运行Python代码 二、Python编 阅读全文
posted @ 2022-03-06 22:12 蓝幻汐 阅读(45) 评论(0) 推荐(0)
摘要: 1.列举Hadoop生态的各个组件及其功能、以及各个组件之间的相互关系,以图呈现并加以文字描述。 1、NameNode:是hdfs的主服务器,管理文件系统的目录树以及对集群中存储文件的访问,保存有metadate,不断读取记录集群中dataNode主机状况和工作状态。 2、SecondaryName 阅读全文
posted @ 2022-02-28 15:52 蓝幻汐 阅读(41) 评论(0) 推荐(0)