随笔 - 25  文章 - 0 评论 - 14 trackbacks - 0

摘要:说到Spark就不得不提MapReduce/Hadoop, 当前越来越多的公司已经把大数据计算引擎从MapReduce升级到了Spark. 至于原因当然是MapReduce的一些局限性了, 我们一起先来看下Mapreduce的局限性和Spark如何做的改进. Spark概述 MapReduce局限性 阅读全文
posted @ 2019-05-19 10:21 wangt.cc 阅读 (165) 评论 (0) 编辑