摘要: from pyspark import SparkConf, SparkContext conf = SparkConf().setMaster("local").setAppName("My App") sc=SparkContext(conf=conf) url = "file:///home/ 阅读全文
posted @ 2022-05-27 21:21 coder-one 阅读(255) 评论(0) 推荐(0) 编辑
摘要: 1 分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 Spark SQL是Spark用来处理结构化数据的一个模块,它提供了一个叫作Data Frame的编程抽象结构数据模型(即带有Schema信息的RDD),Spark SQL作为分布式SQL查询引擎,让用户可以通过SQL、Dat 阅读全文
posted @ 2022-05-07 08:57 coder-one 阅读(60) 评论(0) 推荐(0) 编辑
摘要: 学生课程分数 点击查看代码 from pyspark import SparkConf, SparkContext conf = SparkConf().setMaster("local").setAppName("My App") sc=SparkContext(conf=conf) url = 阅读全文
posted @ 2022-04-06 11:26 coder-one 阅读(63) 评论(0) 推荐(0) 编辑
摘要: 词频统计 ###A. 分步骤实现 点击查看代码 # 创建sc from pyspark import SparkConf, SparkContext conf = SparkConf().setMaster("local").setAppName("My App") sc=SparkContext( 阅读全文
posted @ 2022-03-24 01:44 coder-one 阅读(87) 评论(0) 推荐(0) 编辑
摘要: 一. RDD创建 1. 从本地文件系统中加载数据创建RDD 2. 从HDFS加载数据创建RDD 3.通过并行集合(列表)创建RDD、输入列表、字符串、生成数组 二. RDD操作 1. 转换操作 (1)filter(func) (2)map(func) (3)flatMap(func) (4)redu 阅读全文
posted @ 2022-03-16 09:31 coder-one 阅读(63) 评论(0) 推荐(0) 编辑
摘要: 1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 2.请详细阐述Spark的几个主要概念及相互关系: Master,Worker;RDD,DAG;Application,job,stage,task;driver,executor,C 阅读全文
posted @ 2022-03-09 21:08 coder-one 阅读(40) 评论(0) 推荐(0) 编辑
摘要: 一、安装Spark 检查基础环境hadoop,jdk 配置文件 试运行Python代码 二、Python编程练习:英文文本的词频统计 准备文本文件:heal-the-world.txt 点击查看代码 There's a place in your heart And I know that it i 阅读全文
posted @ 2022-03-06 18:21 coder-one 阅读(43) 评论(0) 推荐(0) 编辑
摘要: ####1.列举Hadoop生态的各个组件及其功能、以及各个组件之间的相互关系,以图呈现并加以文字描述。 Zookerper: 主要解决分布式环境下的数据管理问题:统一命名,状态同步,集群管理,配置同步等。 Oozie: 是一个可扩展的工作体系,集成于Hadoop的堆栈,用于协调多个MapReduc 阅读全文
posted @ 2022-02-23 11:25 coder-one 阅读(41) 评论(0) 推荐(0) 编辑