摘要: 1) --conf spark.dynamicAllocation.enabled=false 如果正在使用的是CDH的Spark,修改这个配置为false;开源的Spark版本则默认是false。 当为true时,即使指定了num-executors个数,spark-streaming应用也会占用 阅读全文
posted @ 2018-09-04 17:45 Arli 阅读(4134) 评论(0) 推荐(2) 编辑