摘要: 1.分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 为了将SQL语句转为Spark应用程序,简化编程,Spark团队开发了Shark(Hive on Spark)。但由于Shark完全按照Hive设计,难以添加新的优化;并且,Spark线程级别并行,Mapreduce进程级别并 阅读全文
posted @ 2022-05-11 12:29 温汉柯 阅读(44) 评论(0) 推荐(0) 编辑
摘要: 网盘下载sc.txt文件,通过RDD操作实现以下数据分析: 持久化 scm.cache() 总共有多少学生?map(), distinct(), count() 开设了多少门课程? 每个学生选修了多少门课?map(), countByKey() 每门课程有多少个学生选?map(), countByV 阅读全文
posted @ 2022-04-20 12:15 温汉柯 阅读(21) 评论(0) 推荐(0) 编辑
摘要: 一、词频统计 A. 分步骤实现 准备文件 下载小说或长篇新闻稿 上传到hdfs上 2.读文件创建RDD 3.分词 排除大小写lower(),map() 标点符号re.split(pattern,str),flatMap() 停用词,可网盘下载stopwords.txt,filter(), 长度小于2 阅读全文
posted @ 2022-04-02 01:04 温汉柯 阅读(18) 评论(0) 推荐(0) 编辑
摘要: 一、 RDD创建 从本地文件系统中加载数据创建RDD 从HDFS加载数据创建RDD启动hdfs上传文件查看文件加载停止hdfs 通过并行集合(列表)创建RDD输入列表、字符串、生成数组 1.从本地文件系统中加载数据创建RDD 2.从HDFS加载数据创建RDD 启动hdfs 上传文件 查看文件 加载 阅读全文
posted @ 2022-03-21 14:38 温汉柯 阅读(53) 评论(0) 推荐(0) 编辑
摘要: 1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 Spark CoreSpark Core 提供了Spark最基础和最核心的功能,主要包括: SparkContext:通常而言,DriverApplication的执行与输出都是通过S 阅读全文
posted @ 2022-03-13 21:39 温汉柯 阅读(46) 评论(0) 推荐(0) 编辑
摘要: 一、安装Spark 检查基础环境hadoop,jdk 配置文件 环境变量 试运行Python代码 二、Python编程练习:英文文本的词频统计 准备文本文件 读文件 预处理:大小写,标点符号,停用词 分词 统计每个单词出现的次数 按词频大小排序 结果写文件 with open("test.txt", 阅读全文
posted @ 2022-03-03 15:46 温汉柯 阅读(35) 评论(0) 推荐(0) 编辑
摘要: 1.列举Hadoop生态的各个组件及其功能、以及各个组件之间的相互关系,以图呈现并加以文字描述。 1. HDFS(Hadoop 分布式文件系统) HDFS 是 Hadoop 生态圈中提供分布式存储支持的系统,上层的很多计算框架(Hbase、Spark 等)都依赖于 HDFS 存储。若要构建 HDFS 阅读全文
posted @ 2022-02-23 10:44 温汉柯 阅读(52) 评论(0) 推荐(0) 编辑