摘要: #####综合练习:学生课程分数 点击查看代码 ### 网盘下载sc.txt文件,分别用RDD操作、DataFrame操作和spark.sql执行SQL语句实现以下数据分析 ## 导入本次实验所需要用到的包 from pyspark.sql import Row from pyspark.sql.t 阅读全文
posted @ 2022-05-20 00:43 叶文茂 阅读(93) 评论(0) 推荐(0) 编辑
摘要: 一. 分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 二. 简述RDD 和DataFrame的联系与区别。 三. DataFrame的创建与保存: PySpark-DataFrame创建: spark.read.text(url) spark.read.json(url) sp 阅读全文
posted @ 2022-05-07 11:19 叶文茂 阅读(12) 评论(0) 推荐(0) 编辑
摘要: 点击查看代码 ''' sc.txt文件 字段名: 姓名, 课程, 分数 ''' # 读取文件创建RDD 并进行处理转换持久化 lines = sc.textFile("file:///home/ywm/sc.txt") skv = lines.map(lambda line:line.split(' 阅读全文
posted @ 2022-04-13 08:42 叶文茂 阅读(36) 评论(0) 推荐(1) 编辑
摘要: 一、词频统计 分步骤实现 准备文件 下载小说或长篇新闻稿 上传到hdfs上 读文件创建RDD 分词 排除大小写,标点符号,停用词,长度小于2的词 统计词频 排序 输出到文件 查看结果 一句话实现 点击查看代码 ''' 词频统计 准备文件包括词频统计文件和停用词文件 存放于实验机或hdfs上 进入py 阅读全文
posted @ 2022-03-30 18:23 叶文茂 阅读(35) 评论(1) 推荐(0) 编辑
摘要: 一、 RDD创建 从本地文件系统中加载数据创建RDD 从HDFS加载数据创建RDD 启动hdfs 上传文件 查看文件 加载 停止hdfs 通过并行集合(列表)创建RDD 输入列表、字符串、生成数组 二、 RDD操作 转换操作 map(func) 显式定义函数 lambda函数 行动操作 foreac 阅读全文
posted @ 2022-03-16 23:22 叶文茂 阅读(14) 评论(0) 推荐(0) 编辑
摘要: 1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 Spark Core: Spark Core 是整个Spark生态的核心,是一种大数据分布式处理框架.不仅提供map和reduce函数,还提供了计算模型,join, filter等. 阅读全文
posted @ 2022-03-09 20:03 叶文茂 阅读(30) 评论(0) 推荐(0) 编辑
摘要: 一、安装Spark 检查基础环境hadoop,jdk 下载spark 解压,文件夹重命名、权限 配置文件 环境变量 试运行Python代码 二、Python编程练习:英文文本的词频统计 准备文本文件 读文件 预处理:大小写,标点符号,停用词 分词 统计每个单词出现的次数 按词频大小排序 结果写文件 阅读全文
posted @ 2022-03-02 19:34 叶文茂 阅读(16) 评论(0) 推荐(0) 编辑
摘要: 1.列举Hadoop生态的各个组件及其功能、以及各个组件之间的相互关系,以图呈现并加以文字描述。 a. HDFS(hadoop分布式文件系统)是hadoop体系中数据存储管理者。 b. MapReduce(分布式计算框架)mapreduce是一种计算模型,用于处理大数据量的计算者。 c. Hive( 阅读全文
posted @ 2022-02-23 13:15 叶文茂 阅读(25) 评论(0) 推荐(0) 编辑
TOP