spark集群在执行任务出现nitial job has not accepted any resources; check your cluster UI to ensure that worker
摘要:
1 spark集群在执行任务时出现了: 2 原因:这是因为默认分配的内存过大(1024M)3 解决方法: 在conf/spark-env.sh下添加export SPARK_WORKER_MEMORY=512和export SPARK_DAEMON_... 阅读全文
posted @ 2018-11-19 20:25
人间值得
阅读(374)
评论(0)
推荐(0)

浙公网安备 33010602011771号