会员
周边
新闻
博问
融资
云市场
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
人间值得
博客园
首页
新随笔
联系
订阅
管理
spark集群在执行任务出现nitial job has not accepted any resources; check your cluster UI to ensure that worker
1 spark集群在执行任务时出现了:
2 原因:这是因为默认分配的内存过大(1024M)
3 解决方法:
在conf/spark-env.sh下添加export SPARK_WORKER_MEMORY=512和export SPARK_DAEMON_MEMORY=256
posted @
2018-11-19 20:25
人间值得
阅读(
349
) 评论(
0
)
编辑
收藏
举报
会员力量,点亮园子希望
刷新页面
返回顶部
公告