2019年8月28日

spark与Hadoop的区别

摘要: 1. Mapreduce和Spark的相同和区别 两者都是用mr模型来进行并行计算 hadoop的一个作业:job job分为map task和reduce task,每个task都是在自己的进程中运行的 当task结束时,进程也会结束 spark用户提交的任务:application 一个appl 阅读全文

posted @ 2019-08-28 17:08 hdc520 阅读(707) 评论(0) 推荐(0)

导航