摘要: 一、简介 Apache Flume 是一个分布式,高可用的数据收集系统,可以从不同的数据源收集数据,经过聚合后发送到分布式计算框架或者存储系统中。Spark Straming 提供了以下两种方式用于 Flume 的整合。 二、推送式方法 在推送式方法 (Flume-style Push-based 阅读全文
posted @ 2020-06-26 23:39 数据驱动 阅读(280) 评论(0) 推荐(0) 编辑
摘要: 一、案例引入 这里先引入一个基本的案例来演示流的创建:获取指定端口上的数据并进行词频统计。项目依赖和代码实现如下: <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-streaming_2.12</artifactI 阅读全文
posted @ 2020-06-26 22:34 数据驱动 阅读(415) 评论(0) 推荐(0) 编辑
摘要: 一、流处理 1.1 静态数据处理 在流处理之前,数据通常存储在数据库,文件系统或其他形式的存储系统中。应用程序根据需要查询数据或计算数据。这就是传统的静态数据处理架构。Hadoop 采用 HDFS 进行数据存储,采用 MapReduce 进行数据查询或分析,这就是典型的静态数据处理架构。 1.2 流 阅读全文
posted @ 2020-06-26 18:02 数据驱动 阅读(481) 评论(0) 推荐(0) 编辑
摘要: 一、 数据准备 本文主要介绍 Spark SQL 的多表连接,需要预先准备测试数据。分别创建员工和部门的 Datafame,并注册为临时视图,代码如下: val spark = SparkSession.builder().appName("aggregations").master("local[ 阅读全文
posted @ 2020-06-26 17:44 数据驱动 阅读(482) 评论(0) 推荐(0) 编辑
摘要: 一、简单聚合 1.1 数据准备 // 需要导入 spark sql 内置的函数包 import org.apache.spark.sql.functions._ val spark = SparkSession.builder().appName("aggregations").master("lo 阅读全文
posted @ 2020-06-26 17:22 数据驱动 阅读(2519) 评论(0) 推荐(0) 编辑
摘要: 一、简介 1.1 多数据源支持 Spark 支持以下六个核心数据源,同时 Spark 社区还提供了多达上百种数据源的读取方式,能够满足绝大部分使用场景。 CSV JSON Parquet ORC JDBC/ODBC connections Plain-text files 注:以下所有测试文件均可从 阅读全文
posted @ 2020-06-26 16:52 数据驱动 阅读(921) 评论(0) 推荐(0) 编辑
摘要: 一、创建DataFrame和Dataset 1.1 创建DataFrame Spark 中所有功能的入口点是 SparkSession,可以使用 SparkSession.builder() 创建。创建后应用程序就可以从现有 RDD,Hive 表或 Spark 数据源创建 DataFrame。示例如 阅读全文
posted @ 2020-06-26 15:43 数据驱动 阅读(292) 评论(0) 推荐(0) 编辑
摘要: 一、Spark SQL简介 Spark SQL 是 Spark 中的一个子模块,主要用于操作结构化数据。它具有以下特点: 能够将 SQL 查询与 Spark 程序无缝混合,允许您使用 SQL 或 DataFrame API 对结构化数据进行查询; 支持多种开发语言; 支持多达上百种的外部数据源,包括 阅读全文
posted @ 2020-06-26 10:54 数据驱动 阅读(874) 评论(0) 推荐(0) 编辑
摘要: 一、集群规划 这里搭建一个 3 节点的 Spark 集群,其中三台主机上均部署 Worker 服务。同时为了保证高可用,除了在 hadoop001 上部署主 Master 服务外,还在 hadoop002 和 hadoop003 上分别部署备用的 Master 服务,Master 服务由 Zooke 阅读全文
posted @ 2020-06-26 10:20 数据驱动 阅读(321) 评论(0) 推荐(0) 编辑
摘要: 一、简介 在 Spark 中,提供了两种类型的共享变量:累加器 (accumulator) 与广播变量 (broadcast variable): 累加器:用来对信息进行聚合,主要用于累计计数等场景; 广播变量:主要用于在节点间高效分发大对象。 二、累加器 这里先看一个具体的场景,对于正常的累计求和 阅读全文
posted @ 2020-06-26 09:56 数据驱动 阅读(229) 评论(0) 推荐(0) 编辑
摘要: 一、作业提交 1.1 spark-submit Spark 所有模式均使用 spark-submit 命令提交作业,其格式如下: ./bin/spark-submit \ --class <main-class> \ # 应用程序主入口类 --master <master-url> \ # 集群的 阅读全文
posted @ 2020-06-26 09:10 数据驱动 阅读(389) 评论(0) 推荐(0) 编辑
摘要: 一、Transformation spark 常用的 Transformation 算子如下表: Transformation 算子 Meaning(含义) map(func) 对原 RDD 中每个元素运用 func 函数,并生成新的 RDD filter(func) 对原 RDD 中每个元素使用f 阅读全文
posted @ 2020-06-26 00:00 数据驱动 阅读(258) 评论(0) 推荐(0) 编辑