摘要:        
内存不足问题 spark 默认分配的内存是4G,通过这个命令分配更大的内存空间给我们的任务 spark-shell --driver-memory 12g import org.apache.spark.sql.DataFrame val hdfs_path_apply: String = s"/m    阅读全文
        
            posted @ 2022-05-22 22:13
yihailin
阅读(78)
评论(0)
推荐(0)
        
        

 
 
         浙公网安备 33010602011771号
浙公网安备 33010602011771号