摘要:
每一个 spark job 根据 shuffle 划分 stage,每个 stage 形成一个或者多个 taskSet,了解了每个 stage 需要运行多少个 task,有助于我们优化 spark 运行 task 数 首先需要了解以下概念: RDD,弹性分布式数据集,多个 partition; sp 阅读全文
posted @ 2019-12-11 15:15
努力的孔子
阅读(2055)
评论(0)
推荐(0)
浙公网安备 33010602011771号