摘要:
有时候,如果你的spark作业处理的数据量特别特别大,几亿数据量;然后spark作业一运行,时不时报错,比如shuffle file cannot find,executor、task lost,out of memory; 可能是说executor的堆外内存不太够用,导致executor在运行的过 阅读全文
posted @ 2018-03-14 16:41
聂政didi
阅读(300)
评论(0)
推荐(0)
2018年3月14日
2018年3月12日
2018年3月10日
2017年6月7日
2017年5月24日
2017年3月7日