摘要: 综合练习:学生课程分数 网盘下载sc.txt文件,创建RDD,并转换得到DataFrame。 >>> lines = spark.sparkContext.textFile('file:///home/hadoop/wc/sc.txt') >>> parts = lines.map(lambda x 阅读全文
posted @ 2022-05-23 23:40 Ah若生 阅读(75) 评论(0) 推荐(0)
摘要: 1.请分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 答:1.关系数据库已经很流行 2.关系数据库在大数据时代已经不能满足要求•首先,用户需要从不同数据源执行各种操作,包括结构化、半结构化和非结构化数据。其次,用户需要执行高级分析,比如机器学习和图像处理•在实际大数据应用中,经 阅读全文
posted @ 2022-05-10 08:07 Ah若生 阅读(49) 评论(0) 推荐(0)
摘要: 三、综合练习:学生课程分数 网盘下载sc.txt文件,通过RDD操作实现以下数据分析: 持久化 scm.cache() 总共有多少学生?map(), distinct(), count() 开设了多少门课程? 生成(姓名,课程分数)键值对RDD,观察keys(),values() 每个学生选修了多少 阅读全文
posted @ 2022-04-19 11:56 Ah若生 阅读(22) 评论(0) 推荐(0)
摘要: 一、词频统计 A. 分步骤实现 1.准备文件 下载小说或长篇新闻稿 上传到hdfs上 2.读文件创建RDD 3.分词 4.排除大小写lower(),map() 标点符号re.split(pattern,str),flatMap(), 停用词,可网盘下载stopwords.txt,filter(), 阅读全文
posted @ 2022-04-11 22:07 Ah若生 阅读(23) 评论(0) 推荐(0)
摘要: 一、 RDD创建 1.从本地文件系统中加载数据创建RDD 2.从HDFS加载数据创建RDD 3.通过并行集合(列表)创建RDD 二、RDD操作 转换操作 1.转换操作 1.filter(func) 显式定义函数 lambda函数 2.map(func) 显式定义函数 lambda函数 字符串分词 数 阅读全文
posted @ 2022-03-27 13:03 Ah若生 阅读(23) 评论(0) 推荐(0)
摘要: 1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 答: 目前,Spark生态系统已经发展成为一个可应用于大规模数据处理的统一分析引擎,它是基于内存计算的大数据并行计算框架,适用于各种各样的分布式平台系统。在Spark生态圈中包含了Sp 阅读全文
posted @ 2022-03-10 19:39 Ah若生 阅读(47) 评论(0) 推荐(0)
摘要: 一、安装Spark 检查基础环境hadoop,jdk 下载spark 解压,文件夹重命名、权限 配置文件 环境变量 试运行Python代码 二、Python编程练习:英文文本的词频统计 准备文本文件 读文件 预处理:大小写,标点符号,停用词 分词 统计每个单词出现的次数 按词频大小排序 结果写文件 阅读全文
posted @ 2022-03-02 18:28 Ah若生 阅读(26) 评论(0) 推荐(0)
摘要: 1.列举Hadoop生态的各个组件及其功能、以及各个组件之间的相互关系,以图呈现并加以文字描述。 HDFS(Hadoop 分布式文件系统),HDFS 是 Hadoop 生态圈中提供分布式存储支持的系统,上层的很多计算框架(Hbase、Spark 等)都依赖于 HDFS 存储。 MapReduce(分 阅读全文
posted @ 2022-02-22 10:25 Ah若生 阅读(92) 评论(0) 推荐(0)