Hadoop-spark集群---hbase的安装

上传 hbase-1.2.3-bin.tar.gz 到node01

cd /tools

tar -zxvf hbase-1.2.3-bin.tar.gz  -C /ren

配置环境变量

vi /etc/profile

export HBASE_HOME=/ren/hbase-1.2.3

export PATH=$PATH:$HBASE_HOME/bin

一.hbase

cd /ren/hbase-1.2.3/conf

1.修改 java的安装目录

vi hbase-env.sh

export JAVA_HOME=/usr/jdk1.8.0_111

export HBASE_CLASSPATH=/ren/hadoop-2.7.3/etc/hadoop

export HBASE_MANAGES_ZK=false        不用hbase自带zk,使用自己的zk集群

2.#设置备用的master

vi /ren/hbase-1.2.3/conf/backup-masters

加入node02

3.#配置hbase-site.xml

vi habse-site.xml

修改<configuration></configuration>

<configuration>

<!--hdfs上的hbase根目录-->

<property>
<name>hbase.rootdir</name>
<value>hdfs://ren/hbase</value>
</property>

 

<!--hbase主节点-->
<property>
<name>hbase.master</name>
<value>node02:16010</value>
</property>

<!--列出有zookeeper的server-->
<property>
<name>hbase.zookeeper.quorum</name>
<value>node01,node02,node03</value>
</property>

<!--zookeeper保存数据的目录,和zookeeper中的配置一样--    >
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/ren/zookeeper-3.4.9/data</value>
</property>

<!--允许hbase进行分布式-->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>

</configuration>

4.设置HRegionServer

vi regionservers

加入node02

     node03

5.复制hdfs-site.xml到${HBASE_HOME}/conf

二.启动

1.同步

scp -r /ren/hbase-1.2.3 root@node02:/ren/

scp -r /ren/hbase-1.2.3 root@node03:/ren/

scp /etc/profile root@node02:/etc/

scp /etc/profile root@node03:/etc/

source /etc/profile

2.启动

start-hbase.sh

jps

在node01即master上显示

在node02和node03上显示

或者通过浏览器输入

http://node01:60010

3.停止

stop-hbase.sh

 

posted @ 2017-03-16 12:50  renjian1995  阅读(251)  评论(0)    收藏  举报