摘要: 1.请用图文阐述Spark生态系统的组成及各组件的功能 2.请详细阐述Spark的几个主要概念及相互关系: Master, Worker; RDD,DAG; Application, job,stage,task; driver,executor,Claster Manager DAGSchedul 阅读全文
posted @ 2022-06-01 09:48 L枝溪 阅读(45) 评论(0) 推荐(0)
摘要: 1.分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 原因:设计一个统一的计算引擎解决所有的各类型计算,包含计算类型: 1.离线批处理; 2.交互式查询 3.图计算 4.流失计算 5.机器学习/迭代计算 6.Spark R 科学计算,数据分析 Shark 建立在 Hive 代码的 阅读全文
posted @ 2022-05-10 19:25 L枝溪 阅读(78) 评论(0) 推荐(0)
摘要: 集合运算练习 union(), intersection(),subtract(), cartesian() 三、学生课程分数 网盘下载sc.txt文件,通过RDD操作实现以下数据分析: 持久化 stu.cache() 总共有多少学生?map(), distinct(), count() 开设了多少 阅读全文
posted @ 2022-04-11 16:02 L枝溪 阅读(46) 评论(0) 推荐(0)
摘要: 一、词频统计 A.分步骤实现 1.准备文件 a.下载小说或长篇新闻稿 直接复制小说粘贴到txt文件 b.上传到hdfs上 2.读文件创建RDD 3.分词 4.排除大小写lower(),map() 标点符号re.split(pattern,str),flatMap(), 停用词,可网盘下载stopwo 阅读全文
posted @ 2022-04-05 16:35 L枝溪 阅读(92) 评论(0) 推荐(0)
摘要: 一、 RDD创建 1.从本地文件系统中加载数据创建RD从HDFS加载数据创建RDD 2.启动hdfs 3.上传文件 4.查看文件 5.停止hdfs 6.通过并行集合(列表)创建RDD 输入列表、字符串、生成数组 二、 RDD操作 转换操作 1.filter(func) 显式定义函数lambda函数 阅读全文
posted @ 2022-03-21 14:16 L枝溪 阅读(152) 评论(0) 推荐(0)
摘要: 检查基础环境hadoop,jdk 配置 试运行python代码 二python编程练习: 准备文本文件:world.txt 统计每个单词出现的次数,按词频大小排序,结果写文件 main.py counts = {} for word in afterwords: counts[word] = cou 阅读全文
posted @ 2022-03-07 15:39 L枝溪 阅读(52) 评论(0) 推荐(0)
摘要: 一:列举Hadoop生态的各个组件及其功能、以及各个组件之间的相互关系,以图呈现并加以文字描述。 1.HDFS hadoop分布式文件系统HDFS是针对谷歌分布式文件系统(Google File System,GFS)的开源实现,它是Hadoop两大核心组成部分之一,提供了在廉价服务器集群中进行大规 阅读全文
posted @ 2022-02-23 10:31 L枝溪 阅读(114) 评论(0) 推荐(0)