saprk里面的action - aggregate

上一篇讲到了spark里面的action函数:

 

Action列表:

  • reduce
  • collect
  • count
  • first
  • take
  • takeSample
  • takeOrdered
  • saveAsTextFile
  • saveAsSequenceFile
  • saveAsObjectFile
  • countByKey
  • foreach

action貌似还有:

6.top  按默认或者指定的排序规则返回前n个元素,默认按降序输出
10.lookup   lookup(k):作用于K-V类型的RDD上,返回指定K的所有V值
 
里面有几个比较难搞清楚的函数,比如 aggregate , 还有 aggregateByKey
参考 http://blog.csdn.net/zhihaoma/article/details/52609503
 

aggregate(zeroValue,seq,comb,taskNums)

将初始值和第一个分区中的第一个元素传递给seq函数进行计算,然后将计算结果和第二个元素传递给seq函数,直到计算到最后一个值。第二个分区中也是同理操作。最后将初始值、所有分区的结果经过combine函数进行计算(先将前两个结果进行计算,将返回结果和下一个结果传给combine函数,以此类推),并返回最终结果。

 

>>> data = sc.parallelize((1,2,3,4,5,6),2)
>>> def seq(a,b):
...     print 'seqOp:'+str(a)+"\t"+str(b)
...     return min(a,b)
... 
>>> def combine(a,b):
...     print 'comOp:'+str(a)+"\t"+str(b)
...     return a+b
... 
>>> data.aggregate(3,seq,combine)
seqOp:3  1
seqOp:1  2
seqOp:1  3
seqOp:3  4
seqOp:3  5
seqOp:3  6
comOp:3  1
comOp:4  3
7
>>>

注意里面有一个初始值,而初始值既用在seq里面,也用在combine里面。

 

 

aggregateByKey(zeroValue,seq,comb,taskNums)

在kv对的RDD中,,按key将value进行分组合并,合并时,将每个value和初始值作为seq函数的参数,进行计算,返回的结果作为一个新的kv对,然后再将结果按照key进行合并,最后将每个分组的value传递给combine函数进行计算(先将前两个value进行计算,将返回结果和下一个value传给combine函数,以此类推),将key与计算结果作为一个新的kv对输出。

注意:aggregateByKey中的初始值只需要和reduce函数计算,不需要和combine函数结合计算,所以导致结果有点不一样。

 

注意这里面 combine 会把不同分区的合起来。而且函数里面也带了taskNums,非常绕。
先看例子:
val data = List((1,3),(1,2),(1,4),(2,3),(3,6),(3,8))
    val rdd = sc.parallelize(data)

    val res : RDD[(Int,Int)] = rdd.aggregateByKey(0)(
      // seqOp
      math.max(_,_),
      // combOp
      _+_
    )

得到:

根据Key值的不同,可以分为3个组:

(1)  (1,3),(1,2),(1,4);

(2)  (2,3);

(3)  (3,6),(3,8)。

这3个组分别进行seqOp,也就是(K,V)里面的V和0进行math.max()运算,运算结果和下一个V继续运算,以第一个组为例,运算过程是这样的:

0, 3 => 3

3, 2 => 3

3, 4 => 4

所以最终结果是(1,4)。combOp是对把各分区的V加起来,由于这里并没有分区,所以实际上是不起作用的。

运行结果:

(2,3)
(1,4)
(3,8)

那么如果增加了分区,结果:

如果生成RDD时分成3个区:

val rdd = sc.parallelize(data,3)
运行结果就变成了:

(3,8)
(1,7)
(2,3)
这是因为一个分区返回(1,3),另一个分区返回(1,4),combOp将这两个V加起来,就得到了(1,7)。

 

再看例子:
>>> data = sc.parallelize([(1,3),(1,2),(1,4),(2,3)])
>>> def seq(a,b):
...     return max(a,b)
... 
>>> def combine(a,b):
...     return a+b
... 
>>> data.aggregateByKey(3,seq,comb,4).collect()
[(1, 10), (2, 3)]

注意上面,如果最后一个参数是1或者2,那么结果是7.

 

 

fold函数

  • reduce()与fold()方法是对同种元素类型数据的RDD进行操作,即必须同构。其返回值返回一个同样类型的新元素。

fold()与reduce()类似,接收与reduce接收的函数签名相同的函数,另外再加上一个初始值作为第一次调用的结果。(例如,加法初始值应为0,乘法初始值应为1)

num.fold(0,lambda x,y:x+y)

 

aggregate()方法可以对两个不同类型的元素进行聚合,即支持异构。

 

fold是aggregate的简化,将aggregate中的seqOp和combOp使用同一个函数op。

  1. scala> rdd1.fold(1)(
  2. | (x,y) => x + y
  3. | )
  4. res19: Int = 58
  5.  
  6. ##结果同上面使用aggregate的第一个例子一样,即:
  7. scala> rdd1.aggregate(1)(
  8. | {(x,y) => x + y},
  9. | {(a,b) => a + b}
  10. | )
  11. res20: Int = 58
  12.  

 

另外还有foldLeft foldRight

细节先不看了。

 

posted @ 2018-01-12 14:03  blcblc  阅读(297)  评论(0编辑  收藏  举报