Hadoop-spark集群---hbase的安装
上传 hbase-1.2.3-bin.tar.gz 到node01
cd /tools
tar -zxvf hbase-1.2.3-bin.tar.gz -C /ren
配置环境变量
vi /etc/profile
export HBASE_HOME=/ren/hbase-1.2.3
export PATH=$PATH:$HBASE_HOME/bin
一.hbase
cd /ren/hbase-1.2.3/conf
1.修改 java的安装目录
vi hbase-env.sh
export JAVA_HOME=/usr/jdk1.8.0_111
export HBASE_CLASSPATH=/ren/hadoop-2.7.3/etc/hadoop
export HBASE_MANAGES_ZK=false 不用hbase自带zk,使用自己的zk集群
2.#设置备用的master
vi /ren/hbase-1.2.3/conf/backup-masters
加入node02
3.#配置hbase-site.xml
vi habse-site.xml
修改<configuration></configuration>
<configuration>
<!--hdfs上的hbase根目录-->
<property>
<name>hbase.rootdir</name>
<value>hdfs://ren/hbase</value>
</property>
<!--hbase主节点-->
<property>
<name>hbase.master</name>
<value>node02:16010</value>
</property>
<!--列出有zookeeper的server-->
<property>
<name>hbase.zookeeper.quorum</name>
<value>node01,node02,node03</value>
</property>
<!--zookeeper保存数据的目录,和zookeeper中的配置一样-- >
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/ren/zookeeper-3.4.9/data</value>
</property>
<!--允许hbase进行分布式-->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
</configuration>
4.设置HRegionServer
vi regionservers
加入node02
node03
5.复制hdfs-site.xml到${HBASE_HOME}/conf
二.启动
1.同步
scp -r /ren/hbase-1.2.3 root@node02:/ren/
scp -r /ren/hbase-1.2.3 root@node03:/ren/
scp /etc/profile root@node02:/etc/
scp /etc/profile root@node03:/etc/
source /etc/profile
2.启动
start-hbase.sh
jps
在node01即master上显示

在node02和node03上显示

或者通过浏览器输入
http://node01:60010
3.停止
stop-hbase.sh

浙公网安备 33010602011771号