spark学习5(hbase集群搭建)

第一步:Hbase安装

hadoop,zookeeper前面都安装好了
将hbase-1.1.3-bin.tar.gz上传到/usr/HBase目录下

[root@spark1 HBase]# chmod u+x hbase-1.1.3-bin.tar.gz
[root@spark1 HBase]# tar -zxvf hbase-1.1.3-bin.tar.gz
[root@spark1 HBase]# mv hbase-1.1.3 hbase-1.1
[root@spark1 ~]# vi/etc/profile #配置环境变量
export HBASE_HOME=/usr/HBase/hbase-1.1
export PATH=$PATH:$HBASE_HOME/bin
[root@spark1 ~]# source /etc/profile #使其生效

第二步:修改配置文件

编辑 hbase-env.xml

[root@spark1 conf]# vi hbase-env.sh
# The java implementation to use.  Java 1.7+ required.
export JAVA_HOME=/usr/java/jdk
# Extra Java CLASSPATH elements.  Optional.
export HBASE_CLASSPATH=/usr/HBase/hbase-1.1/conf
# Tell HBase whether it should manage it's own instance of Zookeeper or not.
export HBASE_MANAGES_ZK=false 使用HBASE自带的zookeeper管理集群用true,自己安装的用false


编辑 hbase-site.xml


[root@spark1 hbase-1.1]# mkdir tmp
[root@spark1 hbase-1.1]# cd conf
[root@spark1 conf]# vi hbase-site.xml


<property>
<name>hbase.tmp.dir</name>
<value>/usr/HBase/hbase-1.1/tmp</value>
</property>

<!-- 指定hbase在HDFS上存储的路径 -->
<property>
<name>hbase.rootdir</name> 
<value>hdfs://spark1:9000/hbase</value>
</property>

<!-- 打开 hbase 分布模式  -->  
<property>
<name>hbase.cluster.distributed</name> 
<value>true</value>
</property>

<!-- 指定zk的地址,多个用“,”分割 -->  
<property>
<name>hbase.zookeeper.quorum</name> 
<value>spark1,spark2,spark3</value>
</property>



编辑 regionservers

[root@spark1 conf]# vi regionservers #添加从节点
spark2
spark3

第三步:搭建hbase集群

[root@spark1 usr]# scp -r HBase root@spark2:/usr/
[root@spark1 usr]# scp -r HBase root@spark3:/usr/
[root@spark1 ~]# scp -r /etc/profile root@spark2:/etc/ 
[root@spark1 ~]# scp -r /etc/profile root@spark3:/etc/
[root@spark2 ~]# source /etc/profile
[root@spark3 ~]# source /etc/profile

第四步:启动 / 关闭 Hbase 数据库集群

启动前我先把hadoop启动和zookeeper启动

[root@spark1 ~]# zkServer.sh start #三个节点都要启动
[root@spark1 ~]# zkServer.sh status #查看是否启动成功
[root@spark1 ~]# start-all.sh  #启动hadoop
[root@spark1 ~]# start-hbase.sh 
[root@spark1 ~]# stop-hbase.sh


第五步:验证启动

查看jps和hbase shell

[root@spark1 ~]# jps
[root@spark1 ~]# hbase shell
status #查看状态
version #查看版本

image

posted @ 2016-12-15 21:57  邬家栋  阅读(519)  评论(0编辑  收藏  举报