摘要: 一、Spark框架概述 1.1 spark是什么 定义:Apache Spark是用于大规模数据(large-scala data)处理的统一(unified)分析引擎。 弹性分布式数据集RDD:RDD 是一种分布式内存抽象,其使得程序员能够在大规模集群中做内存运算,并且有一定的容错方式。而这也是整 阅读全文
posted @ 2023-07-30 20:09 KongLong_cm 阅读(237) 评论(0) 推荐(0)