摘要: 1.分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 SparkSQL出现的原因 hive是shark的前身,shark是sparkSQL的前身,sparkSQL产生的根本原因是其完全脱离了hive的限制,hive是hive SQL转换成MapReduce然后提交到集群上执行,大 阅读全文
posted @ 2022-05-06 16:38 原兮amnesla 阅读(17) 评论(0) 推荐(0)
摘要: 集合运算练习 union(), intersection(),subtract(), cartesian() 内连接与外连接 join(), leftOuterJoin(), rightOuterJoin(), fullOuterJoin() 多个考勤文件,签到日期汇总,出勤次数统计 三、综合练习: 阅读全文
posted @ 2022-04-20 14:57 原兮amnesla 阅读(29) 评论(0) 推荐(0)
摘要: 一、词频统计 A. 分步骤实现 1、准备文件 下载小说或长篇新闻稿 上传到hdfs上 2、读文件创建RDD 3、分词 4、排除大小写lower(),map() 标点符号re.split(pattern,str),flatMap(), 停用词,可网盘下载stopwords.txt,filter(), 阅读全文
posted @ 2022-04-07 12:00 原兮amnesla 阅读(22) 评论(0) 推荐(0)
摘要: 一、 RDD创建 1、从本地文件系统中加载数据创建RDD 2、从HDFS加载数据创建RDD 启动hdfs 上传文件 查看文件 加载 停止hdfs 3、通过并行集合(列表)创建RDD 输入列表 字符串 numpy生成数组 若没有装numpy库,需先执行以下命令再继续操作 sudo apt instal 阅读全文
posted @ 2022-03-19 22:59 原兮amnesla 阅读(38) 评论(0) 推荐(0)
摘要: 1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 (1)Spark Core:Spark核心组件,它实现了Spark的基本功能,包含任务调度、内存管理、错误恢复、与存储系统交互等模块。Spark Core中还包含了对弹性分布式数据集( 阅读全文
posted @ 2022-03-09 16:26 原兮amnesla 阅读(42) 评论(0) 推荐(0)
摘要: 一、安装Spark 1、检查基础环境hadoop,jdk 启动hdfs查看进程 2、下载spark(省略,原来已下好Spark) 3、解压,文件夹重命名、权限(省略,原来已下好Spark) 4、配置文件 配置Spark的classPath,并加上最后一行代码 5、环境变量 6、试运行Python代码 阅读全文
posted @ 2022-03-02 19:36 原兮amnesla 阅读(22) 评论(0) 推荐(0)
摘要: 一.列举Hadoop生态的各个组件及其功能、以及各个组件之间的相互关系,以图呈现并加以文字描述。 Hadoop生态系统t通过多年的累计和发展不断完善并成熟,目前已经包括了多个子项目,除了核心的HDFS和MapReduce以外,Hadoop生态系统还包括要ZoopKer、HBase、Hive、Pig、 阅读全文
posted @ 2022-02-27 22:28 原兮amnesla 阅读(96) 评论(0) 推荐(0)