摘要: 缺交:https://www.cnblogs.com/AKSS12345/p/14850339.html 02 Spark架构与运行流程 原因:当时没注意看时间,导致没交到。 大作业: 1.选择使用什么数据,有哪些字段,多大数据量。 数据:us-counties美新冠数据 字段:日期、国家、洲、病例 阅读全文
posted @ 2021-06-06 00:21 AKSS12345 阅读(76) 评论(0) 推荐(0) 编辑
摘要: 1. Spark已打造出结构一体化、功能多样化的大数据生态系统,请简述Spark生态系统。 spark生态系统称为BDAS(伯努利数据分析栈),本文旨在简单介绍Spark生态系统中一些常用的组件,让大家对Spark生态系统(BDAS)有个简单的了解,知道什么组件能做什么事情 Spark生态系统(BD 阅读全文
posted @ 2021-06-04 16:58 AKSS12345 阅读(63) 评论(0) 推荐(0) 编辑
摘要: 1.安装启动检查Mysql服务。netstat -tunlp (3306) 2.spark 连接mysql驱动程序。–cp /usr/local/hive/lib/mysql-connector-java-5.1.40-bin.jar /usr/local/spark/jars 3.启动 Mysql 阅读全文
posted @ 2021-05-30 22:03 AKSS12345 阅读(18) 评论(0) 推荐(0) 编辑
摘要: 读学生课程分数文件chapter4-data01.txt,创建DataFrame。 一、用DataFrame的操作完成以下数据分析要求 每个分数+5分。 总共有多少学生? 总共开设了哪些课程? 每个学生选修了多少门课? 每门课程有多少个学生选? 每门课程大于95分的学生人数? Tom选修了几门课?每 阅读全文
posted @ 2021-05-22 17:35 AKSS12345 阅读(52) 评论(0) 推荐(0) 编辑
摘要: 1.pandas df 与 spark df的相互转换 df_s=spark.createDataFrame(df_p) df_p=df_s.toPandas() 2. Spark与Pandas中DataFrame对比 http://www.lining0806.com/spark%E4%B8%8E 阅读全文
posted @ 2021-05-13 22:02 AKSS12345 阅读(46) 评论(0) 推荐(0) 编辑
摘要: 1.Spark SQL出现的 原因是什么? Spark SQL是Spark用来处理结构化数据的一个模块,它提供了一个叫作Data Frame的编程抽象结构数据模型(即带有Schema信息的RDD),Spark SQL作为分布式SQL查询引擎,让用户可以通过SQL、DataFrame API和Data 阅读全文
posted @ 2021-05-09 22:02 AKSS12345 阅读(36) 评论(0) 推荐(0) 编辑
摘要: >>> s = txt.lower().split()>>> dd = {}>>> for word in s:... if word not in dd:... dd[word] = 1... else:... dd[word] = dic[word] + 1... >>> ss = sorted 阅读全文
posted @ 2021-04-22 20:28 AKSS12345 阅读(39) 评论(0) 推荐(0) 编辑
摘要: 二、学生课程分数案例 总共有多少学生?map(), distinct(), count() 开设了多少门课程? 每个学生选修了多少门课?map(), countByKey() 每门课程有多少个学生选?map(), countByValue() Tom选修了几门课?每门课多少分?filter(), m 阅读全文
posted @ 2021-04-12 21:44 AKSS12345 阅读(42) 评论(0) 推荐(0) 编辑
摘要: 一、词频统计: #1.读文本文件生成RDD lines #2.将一行一行的文本分割成单词 words flatmap() #3.全部转换为小写 lower() #4.去掉长度小于3的单词 filter() #5.去掉停用词 #6.转换成键值对 map() 7.统计词频 reduceByKey() 二 阅读全文
posted @ 2021-04-04 22:03 AKSS12345 阅读(42) 评论(0) 推荐(0) 编辑
摘要: 一、filter,map,flatmap练习: 1.读文本文件生成RDD lines 代码:lines = sc.textFile('file:///home/hadoop/word.txt') 2.将一行一行的文本分割成单词 words 代码:words=lines.flatMap(lambda 阅读全文
posted @ 2021-03-29 17:31 AKSS12345 阅读(54) 评论(0) 推荐(0) 编辑