安装部署spark standalone 模式集群

前提,安装了jdk1.7,scala,hadoop单节点

步骤:

spark-env.sh
加入:


HADOOP_CONF_DIR=/root/------                        表示使用hdfs上的资源,如果需要使用本地资源,请把这一句注销



2,slaves


3,spark-defalts.conf


-----------------------------------------------------------------------------------------------------------------

启动:


cd    /root/soft/spark-1.3.1
 sbin/start-master.sh                             启动master
                
sbin/start-slaves.sh                                启动worker




































posted @ 2015-12-16 17:54  暗夜小精灵~~  阅读(221)  评论(0编辑  收藏  举报