spark 与 Hadoop 融合后 Neither spark.yarn.jars nor spark.yarn.archive is set
参考文献:
http://blog.csdn.net/lxhandlbb/article/details/54410644
每次提交Spark任务到yarn的时候,总会出现uploading resource(打包spark jars并上传)到hdfs上。
恶劣情况下,会在这里卡住很久。

解决: 
在hdfs上创建目录: 
hdfs dfs -mkdir   /spark_jars
上传spark的jars(spark1.6 只需要上传spark-assembly-1.6.0-SNAPSHOT-hadoop2.6.0.jar)
hdfs dfs -put /opt/spark/jars/*    /spark_jars
在spark的conf的spark-default.conf 
添加配置 :
spark.yarn.jars=hdfs://master:9000/spark_jars/*
#spark.yarn.jars=/opt/spark-2.1.1-bin-hadoop2.7/jars/*

即可解决。不会出现这个问题。
    本博客是博主个人学习时的一些记录,不保证是为原创,个别文章加入了转载的源地址,还有个别文章是汇总网上多份资料所成,在这之中也必有疏漏未加标注处,如有侵权请与博主联系。
如果未特殊标注则为原创,遵循 CC 4.0 BY-SA 版权协议。
posted on 2017-06-02 13:53 Angry_Panda 阅读(1969) 评论(0) 收藏 举报
 
                     
                    
                 
                    
                 
                
            
         
         
 浙公网安备 33010602011771号
浙公网安备 33010602011771号