2021年6月7日
摘要: 06 Spark SQL 及其DataFrame的基本操作 那段时间不在学校不方便交。 大作业: 1.选择使用什么数据,有哪些字段,多大数据量。 数据:us-counties美新冠数据.csv 字段:日期date、县country、州state、确诊人数cases、死亡人数deaths 数据量:15 阅读全文
posted @ 2021-06-07 19:41 zhangxiaofeng 阅读(19) 评论(0) 推荐(0) 编辑
  2021年6月6日
摘要: 1.Spark SQL出现的 原因是什么? 由于MapReduce这种计算模型执行效率比较慢,所以Spark SQL的应运而生,它是将Spark SQL转换成RDD,然后提交到集群执行,执行效率非常快,同时Spark SQL也支持从Hive中读取数据。 2.用spark.read 创建DataFra 阅读全文
posted @ 2021-06-06 21:57 zhangxiaofeng 阅读(32) 评论(0) 推荐(0) 编辑
  2021年5月30日
摘要: 1.安装启动检查Mysql服务。netstat -tunlp (3306) 2.spark 连接mysql驱动程序。 –cp /usr/local/hive/lib/mysql-connector-java-5.1.40-bin.jar /usr/local/spark/jars 3.启动 Mysq 阅读全文
posted @ 2021-05-30 11:57 zhangxiaofeng 阅读(150) 评论(0) 推荐(0) 编辑
  2021年5月23日
摘要: 1.生成“表头” 2.生成“表中的记录” 3.把“表头”和“表中的记录”拼装在一起 用DataFrame的操作或SQL语句完成以下数据分析要求,并和用RDD操作的实现进行对比: 每个分数+5分。 df_scs.select('name','cource',df_scs['score']+5).sho 阅读全文
posted @ 2021-05-23 17:33 zhangxiaofeng 阅读(30) 评论(0) 推荐(0) 编辑
  2021年5月13日
摘要: 1.pandas df 与 spark df的相互转换 3.1 利用反射机制推断RDD模式 sc创建RDD 转换成Row元素,列名=值 spark.createDataFrame生成df df.show(), df.printSchema() 3.2 使用编程方式定义RDD模式 生成“表头” fie 阅读全文
posted @ 2021-05-13 22:06 zhangxiaofeng 阅读(22) 评论(0) 推荐(0) 编辑
  2021年4月18日
摘要: 一、词频统计: 1.读文本文件生成RDD lines lines = sc.textFile('file:///home/hadoop/word.txt') 2.将一行一行的文本分割成单词 words flatmap() words=lines.flatMap(lambda line:line.sp 阅读全文
posted @ 2021-04-18 14:28 zhangxiaofeng 阅读(32) 评论(0) 推荐(0) 编辑
  2021年3月28日
摘要: 1. 准备文本文件从文件创建RDD lines=sc.textFile()筛选出含某个单词的行 lines.filter()lambda 参数:条件表达式 2. 生成单词的列表从列表创建RDD words=sc.parallelize()筛选出长度大于2 的单词 words.filter() 3. 阅读全文
posted @ 2021-03-28 18:06 zhangxiaofeng 阅读(21) 评论(0) 推荐(0) 编辑
  2021年3月12日
摘要: 1. 阐述Hadoop生态系统中,HDFS, MapReduce, Yarn, Hbase及Spark的相互关系。 Hadoop对应于Google三驾马车:HDFS对应于GFS,即分布式文件系统,MapReduce即并行计算框架,HBase对应于BigTable,即分布式NoSQL列数据库,外加Zo 阅读全文
posted @ 2021-03-12 20:25 zhangxiaofeng 阅读(34) 评论(0) 推荐(0) 编辑
  2020年12月12日
摘要: 1.mysql准备接受数据的数据库与表 2.hive准备待传输的数据 3.sqoop进行数据传输 4..mysql查看传输结果 阅读全文
posted @ 2020-12-12 19:47 zhangxiaofeng 阅读(30) 评论(0) 推荐(0) 编辑
  2020年12月6日
摘要: 一、hive用本地文件进行词频统计 1.准备本地txt文件 2.启动hadoop,启动hive 3.创建数据库,创建文本表 4.映射本地文件的数据到文本表中 5.hql语句进行词频统计交将结果保存到结果表中。 6.查看统计结果 二、hive用HDFS上的文件进行词频统计 1.准备电子书或其它大的文本 阅读全文
posted @ 2020-12-06 21:09 zhangxiaofeng 阅读(82) 评论(0) 推荐(0) 编辑