随笔分类 -  Spark--分布式计算引擎

摘要:Spark行动算子 所谓的行动算子,其实不会再产生新的RDD,而是触发作业的执行 行动算子执行后,会获取到作业的执行结果。 转换算子不会触发作业的执行,只是功能的扩展和包装。 1) reduce 函数签名 def reduce(f: (T, T) => T): T 函数说明 聚集RDD中的所有元素, 阅读全文
posted @ 2020-06-07 15:48 垚~垚 阅读(403) 评论(0) 推荐(0)
摘要:l Key - Value类型 1) partitionBy 函数签名 def partitionBy(partitioner: Partitioner): RDD[(K, V)] 函数说明 将数据按照指定Partitioner重新进行分区。Spark默认的分区器是HashPartitioner v 阅读全文
posted @ 2020-06-07 15:47 垚~垚 阅读(320) 评论(0) 推荐(0)
摘要:双value 1) intersection 函数签名 def intersection(other: RDD[T]): RDD[T] 函数说明 对源RDD和参数RDD求交集后返回一个新的RDD 保留分区中中较大分区数 val dataRDD1 = sparkContext.makeRDD(List 阅读全文
posted @ 2020-06-07 13:29 垚~垚 阅读(244) 评论(0) 推荐(0)
摘要:Sparks算子总结: l Value类型 1) map 函数签名 def map[U: ClassTag](f: T => U): RDD[U] //单值处理逻辑 函数说明 将处理的数据逐条进行映射转换,这里的转换可以是类型的转换,也可以是值的转换。 val dataRDD: RDD[Int] = 阅读全文
posted @ 2020-06-07 13:10 垚~垚 阅读(230) 评论(0) 推荐(0)