会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
闻风Wioshgau
博客园
首页
新随笔
联系
订阅
管理
2022年6月8日
2、安装Spark与Python练习 6.RDD综合练习:更丰富的操作
摘要: 一、安装Spark 1、检查基础环境hadoop、jdk 2、下载Spark(略) 3、解压、文件夹重命名、权限(略) 4、配置文件 5、环境变量 6、试运行Python代码 二、Python编程练习:英文文本的词频统计 1、准备文本 2、编写代码 3、运行结果 6.RDD练习 集合运算练习 uni
阅读全文
posted @ 2022-06-08 10:17 闻风Wioshgau
阅读(59)
评论(0)
推荐(0)
2022年5月27日
8.SparkSQL综合作业
摘要: 综合练习:学生课程分数 网盘下载sc.txt文件,分别创建RDD、DataFrame和临时表/视图; 分别用RDD操作、DataFrame操作和spark.sql执行SQL语句实现以下数据分析: 1.总共有多少学生? 2.总共开设了多少门课程? 3.每个学生选修了多少门课? 4.每门课程有多少个学生
阅读全文
posted @ 2022-05-27 14:02 闻风Wioshgau
阅读(19)
评论(0)
推荐(0)
2022年5月11日
7.Spark SQL
摘要: 1.分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 SparkSQL出现的原因 hive是shark的前身,shark是sparkSQL的前身,sparkSQL产生的根本原因是其完全脱离了hive的限制,hive是hive SQL转换成MapReduce然后提交到集群上执行,大
阅读全文
posted @ 2022-05-11 10:57 闻风Wioshgau
阅读(16)
评论(0)
推荐(0)
2022年4月7日
5.RDD操作综合实例
摘要: 一、词频统计 A. 分步骤实现 1.准备文件,下载小说或长篇新闻稿 2.上传到hdfs上 3.读文件创建RDD 4.分词 5.排除大小写lower(),map() 6.标点符号re.split(pattern,str),flatMap(),停用词,可网盘下载stopwords.txt,filter(
阅读全文
posted @ 2022-04-07 15:24 闻风Wioshgau
阅读(13)
评论(0)
推荐(0)
2022年3月23日
4.RDD操作
摘要: 一、 RDD创建 1.从本地文件系统中加载数据创建RDD 2.从HDFS加载数据创建RDD 启动hdfs 上传文件 查看文件 加载 停止hdfs 3.通过并行集合(列表)创建RDD 输入列表 字符串 numpy生成数组 二、 RDD操作 转换操作 1.map(func) 显式定义函数 lambda函
阅读全文
posted @ 2022-03-23 11:43 闻风Wioshgau
阅读(33)
评论(0)
推荐(0)
2022年3月15日
3.Spark设计与运行原理,基本操作
摘要: 1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 (1)Spark Core:Spark核心组件,它实现了Spark的基本功能,包含任务调度、内存管理、错误恢复、与存储系统交互等模块。Spark Core中还包含了对弹性分布式数据集(
阅读全文
posted @ 2022-03-15 14:02 闻风Wioshgau
阅读(26)
评论(0)
推荐(0)
2022年3月8日
2.安装Spark与Python练习
摘要: 一、安装Spark 1.检查基础环境hadoop,jdk 2.下载spark 3.解压,文件夹重命名、权限 4.配置文件 5.环境变量 6.启动pyspark 7.试运行Python代码 二、Python编程练习:英文文本的词频统计 1.准备文本文件 2.统计每个单词出现的次数
阅读全文
posted @ 2022-03-08 19:33 闻风Wioshgau
阅读(10)
评论(0)
推荐(0)
2022年2月28日
大数据概述
摘要: 1、HDFS(分布式文件系统) HDFS是整个hadoop体系的基础 。 功能:负责数据的存储与管理。HDFS有着高容错性(fault-tolerant)的特点,并且设计用来部署在低廉的(low-cost)硬件上。而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着
阅读全文
posted @ 2022-02-28 21:39 闻风Wioshgau
阅读(121)
评论(0)
推荐(0)
公告