Fork me on GitHub
摘要: 一、累加器简介 在Spark中如果想在Task计算的时候统计某些事件的数量,使用filter/reduce也可以,但是使用累加器是一种更方便的方式,累加器一个比较经典的应用场景是用来在Spark Streaming应用中记录某些事件的数量。 使用累加器时需要注意只有Driver能够取到累加器的值,Task端进行的是累加操作。 创建的Accumulator变量的值能够在Spark Web UI上... 阅读全文
posted @ 2018-11-03 18:16 CC11001100 阅读(10228) 评论(0) 推荐(0) 编辑