会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
卓启鹏
博客园
首页
新随笔
联系
订阅
管理
2021年6月6日
10 期末大作业
摘要: https://www.cnblogs.com/7poom/p/14854276.html 09 spark连接mysql数据库 放在博客里忘记提交了,结果超时了。 大作业: 1.选择使用什么数据,有哪些字段,多大数据量。 数据:中国疫情数据 字段:省份、确诊人数、死亡人数、治愈人数、新增人数 2.
阅读全文
posted @ 2021-06-06 00:02 7poom
阅读(63)
评论(0)
推荐(0)
2021年6月5日
09 spark连接mysql数据库
摘要: 1.安装启动检查Mysql服务。netstat -tunlp (3306) 2.spark 连接mysql驱动程序。–cp /usr/local/hive/lib/mysql-connector-java-5.1.40-bin.jar /usr/local/spark/jars 3.启动 Mysql
阅读全文
posted @ 2021-06-05 23:55 7poom
阅读(34)
评论(0)
推荐(0)
2021年5月24日
08 学生课程分数的Spark SQL分析
摘要: 读学生课程分数文件chapter4-data01.txt,创建DataFrame。 一、用DataFrame的操作完成以下数据分析要求 每个分数+5分。 总共有多少学生? 总共开设了哪些课程? 每个学生选修了多少门课? 每门课程有多少个学生选? 每门课程大于95分的学生人数? Tom选修了几门课?每
阅读全文
posted @ 2021-05-24 13:47 7poom
阅读(44)
评论(0)
推荐(0)
2021年5月14日
07 从RDD创建DateFrame
摘要: 1.pandas df 与 spark df的相互转换 df_s=spark.createDataFrame(df_p) df_p=df_s.toPandas() 2. Spark与Pandas中DataFrame对比 http://www.lining0806.com/spark%E4%B8%8E
阅读全文
posted @ 2021-05-14 21:58 7poom
阅读(53)
评论(0)
推荐(0)
2021年5月10日
06 Spark SQL 及其DataFrame的基本操作
摘要: 1.Spark SQL出现的 原因是什么? Spark SQL是Spark用来处理结构化数据的一个模块,它提供了一个叫作Data Frame的编程抽象结构数据模型(即带有Schema信息的RDD),Spark SQL作为分布式SQL查询引擎,让用户可以通过SQL、DataFrame API和Data
阅读全文
posted @ 2021-05-10 15:18 7poom
阅读(35)
评论(0)
推荐(0)
2021年4月12日
06 RDD编程
摘要: 二、学生课程分数案例 1.总共有多少学生?map(), distinct(), count() 2.开设了多少门课程? 3.每个学生选修了多少门课?map(), countByKey() 4.每门课程有多少个学生选?map(), countByValue() 5.Tom选修了几门课?每门课多少分?f
阅读全文
posted @ 2021-04-12 21:16 7poom
阅读(53)
评论(0)
推荐(0)
2021年4月3日
05 RDD练习:词频统计,学习课程分数
摘要: 一、词频统计: #1.读文本文件生成RDD lines #2.将一行一行的文本分割成单词 words flatmap() #3.全部转换为小写 lower() #4.去掉长度小于3的单词 filter() #5.去掉停用词 #6.转换成键值对 map() 7.统计词频 reduceByKey() 二
阅读全文
posted @ 2021-04-03 13:21 7poom
阅读(50)
评论(0)
推荐(0)
2021年3月29日
04 RDD编程练习
摘要: 一、filter,map,flatmap练习: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words 3.全部转换为小写 4.去掉长度小于3的单词 5.去掉停用词 6.练习一的生成单词键值对
阅读全文
posted @ 2021-03-29 20:55 7poom
阅读(35)
评论(0)
推荐(0)
2021年3月27日
03 Spark RDD基础编程
摘要: 1. 准备文本文件从文件创建RDD lines=sc.textFile()筛选出含某个单词的行 lines.filter()lambda 参数:条件表达式 2. 生成单词的列表从列表创建RDD words=sc.parallelize()筛选出长度大于2 的单词 words.filter()
阅读全文
posted @ 2021-03-27 22:04 7poom
阅读(41)
评论(0)
推荐(0)
2021年3月14日
Spark架构与运行流程
摘要: 1、为什么要引入Yarn和Spark。 (1)现有的hadoop生态系统中存在的问题 1)使用mapreduce进行批量离线分析; 2)使用hive进行历史数据的分析; 3)使用hbase进行实时数据的查询; 4)使用storm进行实时的流处理; (2)选用spark的原因 1) 应用于流式计算的S
阅读全文
posted @ 2021-03-14 12:25 7poom
阅读(69)
评论(0)
推荐(0)
下一页
公告