摘要: 一、安装Spark 检查基础环境hadoop,jdk 配置文件、 环境变量 3.试运行python代码 二、Python编程练习:英文文本的词频统计1.准备文本2.统计每个单词出现的次数 3.结果写文件 原因:已经写好了但是忘记提交到作业里面,老师幸苦了。 阅读全文
posted @ 2022-05-27 12:26 孜然猪扒 阅读(30) 评论(0) 推荐(0)
摘要: 1.分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 SparkSQL的前身Shark对于Hive的太多依赖(如采用Hive的语法解析器、查询优化器等等),制约了Spark的One Stack Rule Them All的既定方针,制约了Spark各个组件的相互集成,所以提出了S 阅读全文
posted @ 2022-05-10 22:26 孜然猪扒 阅读(110) 评论(0) 推荐(0)
摘要: 集合运算练习 union(), intersection(),subtract(), cartesian() 三、学生课程分数 网盘下载sc.txt文件,通过RDD操作实现以下数据分析: 持久化 scm.cache() 总共有多少学生?map(), distinct(), count() 开设了多少 阅读全文
posted @ 2022-04-06 19:35 孜然猪扒 阅读(53) 评论(0) 推荐(1)
摘要: 一、词频统计 A. 分步骤实现 准备文件 下载小说或长篇新闻稿 上传到hdfs上 读文件创建RDD 分词 排除大小写lower(),map()标点符号re.split(pattern,str),flatMap(), 停用词,可网盘下载stopwords.txt,filter(),长度小于2的词fil 阅读全文
posted @ 2022-04-06 14:03 孜然猪扒 阅读(35) 评论(0) 推荐(0)
摘要: 一、 从本地文件系统中加载数据创建RDD 2.从HDFS加载数据创建RDD 启动hdfs,然后上传文件 加载my.txt 3.通过并行集合(列表)创建RDD 1.输入列表,字符串,生成 2.map(func) 显示定义函数 lambd函数 转换操作 1.filter(func)显式定义函数lambd 阅读全文
posted @ 2022-03-17 21:30 孜然猪扒 阅读(49) 评论(0) 推荐(1)
摘要: 一.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 组件介绍 1. Spark Core:Spark核心组件,它实现了Spark的基本功能,包含任务调度、内存管理、错误恢复、与存储系统交互等模块。Spark Core中还包含了对弹性分布 阅读全文
posted @ 2022-03-09 11:02 孜然猪扒 阅读(85) 评论(0) 推荐(1)
摘要: 一、安装Spark 检查基础环境hadoop,jdk 配置文件、 环境变量 3.试运行python代码 二、Python编程练习:英文文本的词频统计1.准备文本2.统计每个单词出现的次数 3.结果写文件 阅读全文
posted @ 2022-03-08 22:39 孜然猪扒 阅读(17) 评论(0) 推荐(0)
摘要: 1.列举Hadoop生态的各个组件及其功能、以及各个组件之间的相互关系,以图呈现并加以文字描述。 1,HDFS(hadoop分布式文件系统) 是hadoop体系中数据存储管理的基础。 2,mapreduce(分布式计算框架) mapreduce是一种计算模型,用于处理大数据量的计算。 3, hive 阅读全文
posted @ 2022-02-23 10:43 孜然猪扒 阅读(66) 评论(0) 推荐(0)