摘要: # 创建RDD url = "file:///home/hadoop/sc.txt" rdd = sc.textFile(url).map(lambda x:x.split(",")) scm = rdd.map(lambda a:[a[0],a[1],int(a[2])]) scm.cache() 阅读全文
posted @ 2022-05-27 22:22 liquorice 阅读(33) 评论(0) 推荐(0) 编辑
摘要: 1.分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 Spark SQL是Spark用来处理结构化数据的一个模块,它提供了一个叫作Data Frame的编程抽象结构数据模型(即带有Schema信息的RDD),Spark SQL作为分布式SQL查询引擎,让用户可以通过SQL、Dat 阅读全文
posted @ 2022-05-11 17:32 liquorice 阅读(88) 评论(0) 推荐(0) 编辑
摘要: 集合运算练习 union(), intersection(),subtract(), cartesian() 三、学生课程分数 网盘下载sc.txt文件,通过RDD操作实现以下数据分析: 持久化 scm.cache() scm=sc.textFile("sc.txt").map(lambda lin 阅读全文
posted @ 2022-04-06 11:20 liquorice 阅读(73) 评论(0) 推荐(1) 编辑
摘要: 一、词频统计 1.准备文件 文章地址:https://baijiahao.baidu.com/s?id=1590095643409783178&wfr=spider&for=pc 2.下载小说或长篇新闻稿 3.上传到hdfs上 A.分步骤实现 读文件创建RDD 分词 排除大小写,标点符号,停用词,长 阅读全文
posted @ 2022-03-24 15:39 liquorice 阅读(70) 评论(1) 推荐(0) 编辑
摘要: 一、 RDD创建 从本地文件系统中加载数据创建RD从HDFS加载数据创建RDD 启动hdfs 上传文件 查看文件 加载 停止hdfs 通过并行集合(列表)创建RDD输入列表、字符串、生成数组 二、 RDD操作 转换操作 1.filter(func) 显式定义函数lambda函数 2.map(func 阅读全文
posted @ 2022-03-16 15:39 liquorice 阅读(46) 评论(0) 推荐(0) 编辑
摘要: 1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 (1)Spark Core:Spark核心组件,它实现了Spark的基本功能,包含任务调度、内存管理、错误恢复、与存储系统交互等模块。Spark Core中还包含了对弹性分布式数据集( 阅读全文
posted @ 2022-03-09 11:12 liquorice 阅读(73) 评论(0) 推荐(0) 编辑
摘要: 一、安装Spark 检查基础环境hadoop,jdk 下载spark 解压,文件夹重命名、权限 配置文件 环境变量 试运行Python代码 二、Python编程练习:英文文本的词频统计 准备文本文件 读文件 预处理:大小写,标点符号,停用词 分词 统计每个单词出现的次数 按词频大小排序 结果写文件 阅读全文
posted @ 2022-03-05 20:30 liquorice 阅读(40) 评论(0) 推荐(0) 编辑
摘要: 1.列举Hadoop生态的各个组件及其功能、以及各个组件之间的相互关系,以图呈现并加以文字描述。 1,HDFS(hadoop分布式文件系统) 是hadoop体系中数据存储管理的基础。他是一个高度容错的系统,能检测和应对硬件故障。 client:切分文件,访问HDFS,与namenode交互,获取文件 阅读全文
posted @ 2022-02-23 11:03 liquorice 阅读(311) 评论(0) 推荐(0) 编辑