摘要: 网盘下载sc.txt文件,创建RDD,并转换得到DataFrame。 分别用DataFrame操作和spark.sql执行SQL语句实现以下数据分析: 总共有多少学生? 开设了多少门课程? 每个学生选修了多少门课? 每门课程有多少个学生选? 每门课程>95分的学生人数 有多少个100分? Tom选修 阅读全文
posted @ 2022-05-27 14:24 泽浩111 阅读(46) 评论(0) 推荐(0) 编辑
摘要: 1.分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 SparkSQL出现的原因 hive是shark的前身,shark是sparkSQL的前身,sparkSQL产生的根本原因是其完全脱离了hive的限制,hive是hive SQL转换成MapReduce然后提交到集群上执行,大 阅读全文
posted @ 2022-04-28 10:36 泽浩111 阅读(88) 评论(0) 推荐(0) 编辑
摘要: 集合运算练习 union(), intersection(),subtract(), cartesian() 内连接与外连接 join(), leftOuterJoin(), rightOuterJoin(), fullOuterJoin() 多个考勤文件,签到日期汇总,出勤次数统计 三、综合练习: 阅读全文
posted @ 2022-04-09 11:44 泽浩111 阅读(95) 评论(0) 推荐(1) 编辑
摘要: 一、词频统计 A. 分步骤实现 1、准备文件 下载小说或长篇新闻稿 上传到hdfs上 2、读文件创建RDD 3、分词 4、排除大小写lower(),map() 标点符号re.split(pattern,str),flatMap(), 停用词,可网盘下载stopwords.txt,filter(), 阅读全文
posted @ 2022-04-07 21:14 泽浩111 阅读(40) 评论(0) 推荐(0) 编辑
摘要: 一、 RDD创建 1、从本地文件系统中加载数据创建RDD 2、从HDFS加载数据创建RDD 启动hdfs 上传文件 查看文件 加载 停止hdfs 3、通过并行集合(列表)创建RDD 输入列表 字符串 numpy生成数组 若没有装numpy库,需先执行以下命令再继续操作 sudo apt instal 阅读全文
posted @ 2022-03-20 00:15 泽浩111 阅读(36) 评论(0) 推荐(0) 编辑
摘要: 1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 1)SparkCore:类似于MR的分布式内存计算框架,最大的特点是将中间计算结果直接放在内存中,提升计算性能。自带了Standalone模式的资源管理框架,同时,也支持YARN、ME 阅读全文
posted @ 2022-03-16 10:43 泽浩111 阅读(36) 评论(0) 推荐(0) 编辑
摘要: 1、检查基础环境hadoop,jdk 启动hdfs查看进程 2、下载spark(省略,原来已下好Spark) 3、解压,文件夹重命名、权限(省略,原来已下好Spark) 4、配置文件 配置Spark的classPath,并加上最后一行代码 5、环境变量 6、试运行Python代码 二、Python编 阅读全文
posted @ 2022-03-02 22:47 泽浩111 阅读(51) 评论(0) 推荐(0) 编辑
摘要: 1、列举Hadoop生态的各个组件及其功能、以及各个组件之间的相互关系,以图呈现并加以文字描述。 一、HDFS分布式文件系统 Hadoop分布式文件系统HDFS是针对谷歌分布式文件系统的开源实现,它是Hadoop两大核心组成部分之一,提供了在廉价服务器集群中进行大规模分布式文件存储的能力。 HDFS 阅读全文
posted @ 2022-02-25 10:53 泽浩111 阅读(25) 评论(0) 推荐(0) 编辑