摘要:
(1)SparkContext SparkContext是Spark中Driver程序的一部分,向资源管理器cluster manager(可以是mesos、yarn、standalone)申请spark应用所需的资源executor,资源管理器在各个worker上分配一定的executor。 当我 阅读全文
posted @ 2020-10-28 18:49
happygril3
阅读(260)
评论(0)
推荐(0)

浙公网安备 33010602011771号