对spark算子aggregateByKey的理解
摘要:
案例 aggregateByKey算子其实相当于是针对不同“key”数据做一个map+reduce规约的操作。 举一个简单的在生产环境中的一段代码 有一些整理好的日志字段,经过处理得到了RDD类型为(String,(String,String))的List格式结果,其中各个String代表的是:(用 阅读全文
posted @ 2018-10-12 09:33 cxhfuujust 阅读(377) 评论(0) 推荐(0)
浙公网安备 33010602011771号