摘要:
大数据Spark任务中,分区数过小,每个分区的数据量会很大,执行join、crossjoin的过程,有可能导致shuffle write失败的操作。 可能原因包括: executor.memory内存不足,导致相应比例的nio资源不足, executor.memoryOverhead不足,没有足够的 阅读全文
posted @ 2021-12-08 18:19
兵者
阅读(959)
评论(0)
推荐(0)
2021年12月8日