摘要: 4.RDD操作 一、 RDD创建 1.从本地文件系统中加载数据创建RDD 2.从HDFS加载数据创建RDD 2.1启动hdfs 2.2上传文件 2.3查看文件 2.4加载 2.5停止hdfs 3.通过并行集合(列表)创建RDD 3.1输入列表 3.2字符串 3.3numpy生成数组 二、 RDD操作 阅读全文
posted @ 2022-06-07 22:58 050张自强 阅读(48) 评论(0) 推荐(0) 编辑
摘要: 综合练习:学生课程分数 网盘下载sc.txt文件,创建RDD,并转换得到DataFrame。 >>> lines = spark.sparkContext.textFile('file:///home/hadoop/wc/sc.txt') >>> parts = lines.map(lambda x 阅读全文
posted @ 2022-05-27 14:27 050张自强 阅读(35) 评论(0) 推荐(0) 编辑
摘要: 7.Spark SQL 1.分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 为了将SQL语句转为Spark应用程序,简化编程,Spark团队开发了Shark(Hive on Spark)。但由于Shark完全按照Hive设计,难以添加新的优化;并且,Spark线程级别并行,Ma 阅读全文
posted @ 2022-05-11 22:02 050张自强 阅读(10) 评论(0) 推荐(0) 编辑
摘要: 6. RDD综合练习:更丰富的操作 集合运算练习 union(), intersection(),subtract(), cartesian() 内连接与外连接 join(), leftOuterJoin(), rightOuterJoin(), fullOuterJoin() 多个考勤文件,签到日 阅读全文
posted @ 2022-04-20 20:41 050张自强 阅读(11) 评论(0) 推荐(0) 编辑
摘要: 一、词频统计 A. 分步骤实现 1、准备文件 下载小说或长篇新闻稿 上传到hdfs上 2、读文件创建RDD 3、分词 4、排除大小写lower(),map() 标点符号re.split(pattern,str),flatMap(), 停用词,可网盘下载stopwords.txt,filter(), 阅读全文
posted @ 2022-04-07 19:35 050张自强 阅读(16) 评论(0) 推荐(0) 编辑
摘要: 一、请用图文阐述Spark生态系统的组成及各组件的功能。 1. Spark CoreSpark Core是整个BDAS的核心组件,是一种大数据分布式处理框架,不仅实现了MapReduce的算子map函数和reduce函数及计算模型,还提供如filter、join、groupByKey等更丰富的算子。 阅读全文
posted @ 2022-03-15 00:14 050张自强 阅读(54) 评论(0) 推荐(0) 编辑
摘要: 2.安装Spark与Python练习 1,配置相关文件与环境变量 2,在pyspark中运行代码 3,Python实现英文文本的词频统计 阅读全文
posted @ 2022-03-05 15:52 050张自强 阅读(19) 评论(0) 推荐(1) 编辑
摘要: 1.大数据概述 1.大数据概述 一.列举Hadoop生态的各个组件及其功能、以及各个组件之间的相互关系,以图呈现并加以文字描述 Hadoop生态圈总览图 1.HDFS(分布式文件系统)——核心源自于Google的GFS论文,发表于2003年10月,HDFS是GFS克隆版。 HDFS是整个hadoop 阅读全文
posted @ 2022-02-28 19:30 050张自强 阅读(118) 评论(0) 推荐(0) 编辑
返回顶端