Spark 2.x管理与开发-Spark的安装与部署(三)完全分布式安装、启动

先将之前的伪分布式集群停掉:

[root@bigdata111 sbin]# ./stop-all.sh

1)在伪分布式搭建成功的基础上,修改主节点的slaves文件:

[root@bigdata111 ~]# cd /usr/local/spark-2.1.0-bin-hadoop2.7/conf/

[root@bigdata111 conf]# vi slaves

 

2)将bigdata111上的spark-2.1.0-bin-hadoop2.7上传到bigdata112和bigdata113上:

[root@bigdata111 local]# scp -r spark-2.1.0-bin-hadoop2.7 root@bigdata112:/usr/local/

[root@bigdata111 local]# scp -r spark-2.1.0-bin-hadoop2.7 root@bigdata113:/usr/local/

这样拷贝过去之后,Spark集群的配置信息也就随之拷贝过去了

 

3)启动整个Spark集群

主节点bigdata111上输入:

[root@bigdata111 sbin]# ./start-all.sh

4)jps查看启动的进程:

 

5)查看Spark可视化界面

 

 

 

博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3