03 2021 档案

摘要:1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words 3.全部转换为小写 4.去掉长度小于3的单词 5.去掉停用词 二、groupByKey练习 1.练习一的生成单词键值对 2.对单词进行分组 3.查看分组结果 学生科目成绩文件练习: 0.数据文件上传 1.读大学计算机系 阅读全文
posted @ 2021-03-31 21:41 嘁嘁嘁7 阅读(53) 评论(0) 推荐(0) 编辑
摘要:.准备文本文件,从文件创建RDD lines=sc.textFile(),筛选出含某个单词的行 lines.filter(),lambda 参数:条件表达式 2.生成单词的列表,从列表创建RDD words=sc.parallelize(),筛选出长度大于2 的单词 words.filter() 3 阅读全文
posted @ 2021-03-27 22:14 嘁嘁嘁7 阅读(24) 评论(0) 推荐(0) 编辑
摘要:1. 阐述Hadoop生态系统中,HDFS, MapReduce, Yarn, Hbase及Spark的相互关系,为什么要引入Yarn和Spark。 答: Hadoop对应于Google三驾马车:HDFS对应于GFS,即分布式文件系统,MapReduce即并行计算框架,HBase对应于BigTabl 阅读全文
posted @ 2021-03-12 15:41 嘁嘁嘁7 阅读(78) 评论(0) 推荐(0) 编辑