摘要: 一、安装Spark 1、检查基础环境hadoop、jdk 2、下载Spark(略) 3、解压、文件夹重命名、权限(略) 4、配置文件 5、环境变量 6、试运行Python代码 二、Python编程练习:英文文本的词频统计 1、准备文本 2、编写代码 3、运行结果 6.RDD练习 集合运算练习 uni 阅读全文
posted @ 2022-06-08 10:17 闻风Wioshgau 阅读(45) 评论(0) 推荐(0) 编辑
摘要: 综合练习:学生课程分数 网盘下载sc.txt文件,分别创建RDD、DataFrame和临时表/视图; 分别用RDD操作、DataFrame操作和spark.sql执行SQL语句实现以下数据分析: 1.总共有多少学生? 2.总共开设了多少门课程? 3.每个学生选修了多少门课? 4.每门课程有多少个学生 阅读全文
posted @ 2022-05-27 14:02 闻风Wioshgau 阅读(11) 评论(0) 推荐(0) 编辑
摘要: 1.分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 SparkSQL出现的原因 hive是shark的前身,shark是sparkSQL的前身,sparkSQL产生的根本原因是其完全脱离了hive的限制,hive是hive SQL转换成MapReduce然后提交到集群上执行,大 阅读全文
posted @ 2022-05-11 10:57 闻风Wioshgau 阅读(6) 评论(0) 推荐(0) 编辑
摘要: 一、词频统计 A. 分步骤实现 1.准备文件,下载小说或长篇新闻稿 2.上传到hdfs上 3.读文件创建RDD 4.分词 5.排除大小写lower(),map() 6.标点符号re.split(pattern,str),flatMap(),停用词,可网盘下载stopwords.txt,filter( 阅读全文
posted @ 2022-04-07 15:24 闻风Wioshgau 阅读(7) 评论(0) 推荐(0) 编辑
摘要: 一、 RDD创建 1.从本地文件系统中加载数据创建RDD 2.从HDFS加载数据创建RDD 启动hdfs 上传文件 查看文件 加载 停止hdfs 3.通过并行集合(列表)创建RDD 输入列表 字符串 numpy生成数组 二、 RDD操作 转换操作 1.map(func) 显式定义函数 lambda函 阅读全文
posted @ 2022-03-23 11:43 闻风Wioshgau 阅读(26) 评论(0) 推荐(0) 编辑
摘要: 1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 (1)Spark Core:Spark核心组件,它实现了Spark的基本功能,包含任务调度、内存管理、错误恢复、与存储系统交互等模块。Spark Core中还包含了对弹性分布式数据集( 阅读全文
posted @ 2022-03-15 14:02 闻风Wioshgau 阅读(18) 评论(0) 推荐(0) 编辑
摘要: 一、安装Spark 1.检查基础环境hadoop,jdk 2.下载spark 3.解压,文件夹重命名、权限 4.配置文件 5.环境变量 6.启动pyspark 7.试运行Python代码 二、Python编程练习:英文文本的词频统计 1.准备文本文件 2.统计每个单词出现的次数 阅读全文
posted @ 2022-03-08 19:33 闻风Wioshgau 阅读(6) 评论(0) 推荐(0) 编辑
摘要: 1、HDFS(分布式文件系统) HDFS是整个hadoop体系的基础 。 功能:负责数据的存储与管理。HDFS有着高容错性(fault-tolerant)的特点,并且设计用来部署在低廉的(low-cost)硬件上。而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着 阅读全文
posted @ 2022-02-28 21:39 闻风Wioshgau 阅读(90) 评论(0) 推荐(0) 编辑