zookeeper实现spark高可用

一 安装zookeeper

1.环境:hadoop+spark详情参考如下地址

https://blog.csdn.net/qq_36434219/article/details/80716189

2.下载zookeeper-3.4.10.tar.gz包,jdk1.8

3.解压(本人特意建了一个用户)

4.创建data和logs目录

5.修改配置文件(可以先配置hosts文件,就不用每次输入ip了,三台都要配)

6.在data目录下创建myid文件,并写入0(对应上面的server.x的x)

7.scp到其他两台zookeeper,并修改myid

8.启动zookeeper,bin目录下

9.jps查看(可能报命令不存在,需要装一下高版本jdk)

二.spark怎么用

1.

2.start-all.sh

 

worker起不来,去掉spark-env.sh中的zookeeper配置,就可以起来,纠结了一周了抓狂

定要解决它,等待下次更新,希望不要太久奋斗

 

更新..................................................

伪分布式集群,受本身电脑配置限制,worker起不来,在工作中真实集群中,如此配置,一切正常!!!!!!!!!!

posted @ 2018-07-15 11:02  韧小钊  阅读(67)  评论(0)    收藏  举报