2021年12月8日

摘要: 大数据Spark任务中,分区数过小,每个分区的数据量会很大,执行join、crossjoin的过程,有可能导致shuffle write失败的操作。 可能原因包括: executor.memory内存不足,导致相应比例的nio资源不足, executor.memoryOverhead不足,没有足够的 阅读全文
posted @ 2021-12-08 18:19 兵者 阅读(959) 评论(0) 推荐(0)

导航