Spark 2.x管理与开发-Spark的安装与部署(二)伪分布式安装、启动

只有一台节点、模拟出分布式环境。Master和Worker放在一个节点上。

 之前安装Hadoop的时候,我一般都将安装包啥的存入/opt/module 或/opt/software路径下

 

从现在起,将关于Spark的安装包啥的放在/uer/local目录下(随意,自己记住就好)

 

1)将压缩包拖到虚拟机上,加载完之后进行解压

[root@bigdata111 local]# tar -zxvf spark-2.1.0-bin-hadoop2.7.tgz

 

 

 进入spark-2.1.0-bin-hadoop2.7目录下,查看:

 

(1)先进入上面的bin目录下,查看:

 

(2)再进入sbin目录下查看:

 

(3)接下来进入conf目录下查看:

 

(4)再查看jars目录下的内容:

 

(5)examples目录下存放的就是一些Spark的例子

2)搭建为分布式-修改配置文件

(1)先修改配置文件名字,这里就先拷贝一份:

 

(2)进入拷贝出来的文件,改配置信息:

[root@bigdata111 conf]# vi spark-env.sh

 

[root@bigdata111 conf]# vi slaves

 

3)启动Spark伪分布式

[root@bigdata111 spark-2.1.0-bin-hadoop2.7]# cd /usr/local/spark-2.1.0-bin-hadoop2.7/sbin/

[root@bigdata111 sbin]# ./start-all.sh

 

4)查看Spark可视化界面

192.168.212.111:8080/

 

 

 

博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3