摘要:
一、累加器简介 在Spark中如果想在Task计算的时候统计某些事件的数量,使用filter/reduce也可以,但是使用累加器是一种更方便的方式,累加器一个比较经典的应用场景是用来在Spark Streaming应用中记录某些事件的数量。 使用累加器时需要注意只有Driver能够取到累加器的值,Task端进行的是累加操作。 创建的Accumulator变量的值能够在Spark Web UI上... 阅读全文
posted @ 2018-11-03 18:16
CC11001100
阅读(10611)
评论(0)
推荐(0)

浙公网安备 33010602011771号