摘要: 数据集:美新冠数据集 字段: date county state cases deaths 数据量:158981 准备分析哪些问题? 1) 统计美国截止每日的累计确诊人数和累计死亡人数。 2) 统计美国每日的新增确诊人数和新增死亡人数。 3) 统计截止5.18日,美国各州的累计确诊人数和死亡人数。 阅读全文
posted @ 2021-06-07 20:21 只吃外卖 阅读(13) 评论(0) 推荐(0) 编辑
摘要: spark连接mysql数据库: 1.安装启动检查Mysql服务。 2.spark 连接mysql驱动程序。 –cp /usr/local/hive/lib/mysql-connector-java-5.1.40-bin.jar /usr/local/spark/jars netstat -tunl 阅读全文
posted @ 2021-05-31 21:09 只吃外卖 阅读(20) 评论(0) 推荐(0) 编辑
摘要: 读学生课程分数文件chapter4-data01.txt,创建DataFrame。 用DataFrame的操作或SQL语句完成以下数据分析要求,并和用RDD操作的实现进行对比: 每个分数+5分。 总共有多少学生? 总共开设了哪些课程? 每个学生选修了多少门课? 每门课程有多少个学生选? 每门课程大于 阅读全文
posted @ 2021-05-20 20:24 只吃外卖 阅读(20) 评论(0) 推荐(0) 编辑
摘要: 1.pandas df 与 spark df的相互转换 df_s=spark.createDataFrame(df_p) df_p=df_s.toPandas() 1 2 3 import pandas as pd import numpy as np arr = np.arange(6).resh 阅读全文
posted @ 2021-05-14 21:44 只吃外卖 阅读(47) 评论(0) 推荐(0) 编辑
摘要: 一、词频统计: 读文本文件生成RDD lines 将一行一行的文本分割成单词 words flatmap() 全部转换为小写 lower() 去掉长度小于3的单词 filter() 去掉停用词 转换成键值对 map() 统计词频 reduceByKey() 按字母顺序排序 按词频排序 10、结果文件 阅读全文
posted @ 2021-04-22 19:44 只吃外卖 阅读(34) 评论(0) 推荐(0) 编辑
摘要: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words 3.全部转换为小写 4.去掉长度小于3的单词 5.去掉停用词 1.准备停用词文本: 2.去除停用词: 6.转换成键值对 map() 7.统计词频 reduceByKey() 二、学生课程分数 groupByKey() 阅读全文
posted @ 2021-04-05 20:13 只吃外卖 阅读(47) 评论(0) 推荐(0) 编辑
摘要: 一、filter,map,flatmap练习: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words 3.全部转换为小写 4.去掉长度小于3的单词 5.去掉停用词 二、groupByKey练习 6.练习一的生成单词键值对 7.对单词进行分组 8.查看分组结果 学生科目成绩 阅读全文
posted @ 2021-03-31 20:19 只吃外卖 阅读(19) 评论(0) 推荐(0) 编辑
摘要: 博客园 首页 新随笔 新文章 联系 管理 订阅 Spark RDD编程 1. 准备文本文件从文件创建RDD lines=sc.textFile()筛选出含某个单词的行 lines.filter()lambda 参数:条件表达式 2. 生成单词的列表从列表创建RDD words=sc.parallel 阅读全文
posted @ 2021-03-28 20:35 只吃外卖 阅读(20) 评论(0) 推荐(0) 编辑
摘要: 1. 阐述Hadoop生态系统中,HDFS, MapReduce, Yarn, Hbase及Spark的相互关系,为什么要引入Yarn和Spark。 HDFS是Hadoop体系中数据存储管理的基础。它是一个高度容错的系统,能检测和应对硬件故障,用于在低成本的通用硬件上运行。HDFS简化了文件的一致性 阅读全文
posted @ 2021-03-14 18:50 只吃外卖 阅读(172) 评论(0) 推荐(0) 编辑
摘要: mysql准备接受数据的数据库与表 hive准备待传输的数据 sqoop进行数据传输 mysql查看传输结果 阅读全文
posted @ 2020-12-12 18:56 只吃外卖 阅读(41) 评论(0) 推荐(0) 编辑