Spark shuffle失败的可能原因 及解决办法
摘要:大数据Spark任务中,分区数过小,每个分区的数据量会很大,执行join、crossjoin的过程,有可能导致shuffle write失败的操作。 可能原因包括: executor.memory内存不足,导致相应比例的nio资源不足, executor.memoryOverhead不足,没有足够的
阅读全文
posted @ 2021-12-08 18:19
posted @ 2021-12-08 18:19