摘要: Hadoop原生的计算框架MapReduce,简单概括一下:进程量级很重,启动很慢,但能承载的数据量很大,效率相较于Spark微批处理和Flink实时来讲很慢,Shuffle任何一个写MR同学都必须掌握的东西,说难不难,说简单也不简单 MapReduce程序的五个阶段: input map shuf 阅读全文
posted @ 2020-07-15 13:37 wen1995 阅读(305) 评论(0) 推荐(0) 编辑