摘要: 一、第一部分 1、spark2.1与hadoop2.7.3集成,spark on yarn模式下,需要对hadoop的配置文件yarn-site.xml增加内容,如下: 2、spark的conf/spark-defaults.conf配置 如果你是运行在yarn之上的话,就要告诉yarn,你spar 阅读全文
posted @ 2017-06-23 17:15 Super_Orco 阅读(15838) 评论(0) 推荐(1) 编辑
摘要: 这里默认你的hadoop是已经安装好的,master是node1,slaver是node2-3,hdfs启动在node1,yarn启动在node2,如果没安装好hadoop可以看我前面的文章 因为这里是spark和hadoop集成,我已经预先启动好了hdfs 和 yarn;MapReduce His 阅读全文
posted @ 2017-06-23 16:11 Super_Orco 阅读(6933) 评论(0) 推荐(0) 编辑