摘要:1.pandas df 与 spark df的相互转换 df_s=spark.createDataFrame(df_p) df_p=df_s.toPandas() 2. Spark与Pandas中DataFrame对比 http://www.lining0806.com/spark%E4%B8%8E 阅读全文
posted @ 2021-05-11 23:27 15521419744 阅读(13) 评论(0) 推荐(0) 编辑
摘要:1.Spark SQL出现的 原因是什么? Spark SQL是Spark用来处理结构化数据的一个模块,它提供了一个叫作Data Frame的编程抽象结构数据模型(即带有Schema信息的RDD),Spark SQL作为分布式SQL查询引擎,让用户可以通过SQL、DataFrame API和Data 阅读全文
posted @ 2021-05-08 15:44 15521419744 阅读(6) 评论(0) 推荐(0) 编辑
摘要:一.用图表描述Hadoop生态系统的各个组件及其关系。 Hadoop生态系统除了核心的HDFS和MapReduce以外,Hadoop生态系统还包括Zookeeper、HBase、Hive、Pig、Mahout、Sqoop、Flume、Ambari等功能组件。 (1).HDFS:具有处理超大数据、流式 阅读全文
posted @ 2021-04-16 16:50 15521419744 阅读(8) 评论(0) 推荐(0) 编辑
摘要:一、filter,map,flatmap练习: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words 3.全部转换为小写 4.去掉长度小于3的单词 5.去掉停用词 6.练习一的生成单词键值对 阅读全文
posted @ 2021-04-16 16:48 15521419744 阅读(7) 评论(0) 推荐(0) 编辑
摘要:、词频统计: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words flatmap() 3.全部转换为小写 lower() 4.去掉长度小于3的单词 filter() 5.去掉停用词 6.转换成键值对 map() 7.统计词频 reduceByKey() 二、学生课程分数 阅读全文
posted @ 2021-04-16 16:47 15521419744 阅读(6) 评论(0) 推荐(0) 编辑
摘要:总共有多少学生?map(), distinct(), count() 开设了多少门课程? 每个学生选修了多少门课?map(), countByKey() 每门课程有多少个学生选?map(), countByValue() Tom选修了几门课?每门课多少分?filter(), map() RDD To 阅读全文
posted @ 2021-04-16 16:44 15521419744 阅读(11) 评论(0) 推荐(0) 编辑
摘要:1. 准备文本文件从文件创建RDD lines=sc.textFile()筛选出含某个单词的行 lines.filter() 2. 生成单词的列表从列表创建RDD words=sc.parallelize()筛选出长度大于2 的单词 words.filter() 阅读全文
posted @ 2021-03-27 00:46 15521419744 阅读(9) 评论(0) 推荐(0) 编辑
摘要:1. 为什么要引入Yarn和Spark。 YARN优势1、YARN的设计减小了JobTracker的资源消耗,并且让监测每一个Job子任务(tasks)状态的程序分布式化了,更安全、更优美。 2、在新的Yarn中,ApplicationMaster是一个可变更的部分,用户可以对不同的编程模型写自己的 阅读全文
posted @ 2021-03-12 17:40 15521419744 阅读(12) 评论(0) 推荐(0) 编辑