CentOS6安装各种大数据软件 第六章:HBase分布式集群的配置

相关文章链接

CentOS6安装各种大数据软件 第一章:各个软件版本介绍

CentOS6安装各种大数据软件 第二章:Linux各个软件启动命令

CentOS6安装各种大数据软件 第三章:Linux基础软件的安装

CentOS6安装各种大数据软件 第四章:Hadoop分布式集群配置

CentOS6安装各种大数据软件 第五章:Kafka集群的配置

CentOS6安装各种大数据软件 第六章:HBase分布式集群的配置

CentOS6安装各种大数据软件 第七章:Flume安装与配置

CentOS6安装各种大数据软件 第八章:Hive安装和配置

CentOS6安装各种大数据软件 第九章:Hue大数据可视化工具安装和配置

CentOS6安装各种大数据软件 第十章:Spark集群安装和部署

1. HBase分布式集群的安装准备

#上次HBase安装包到Linux
#解压安装包到modules目录下
tar -zxvf hbase-0.98.6-cdh5.3.0.tar.gz -C /opt/modules/
#删除安装包内的docs文档
rm -rf docs/

2. HBase分布式集群的相关配置

2.1. HBase架构体系

Hbase架构体系还是有两个基础服务作为依赖的.对于Hbase,它的数据存储真正落地是在HDFS文件系统上.因此,它的可扩展性非常强,我们可以对HDFS进行无限的横向扩展.数据的存放和管理我们是通过RegionServer来进行管理的.RegionServer类似于我们之前的DataNode,而Master类似我们之前的NameNode.RegionServer会定时的像Master发送心跳信息,报告自己的健康状态信息。

  • Zookeeper:Zookeeper Quorum中除了存储了-ROOT-表的地址和HMaster的地址,HRegionServer也会把自己以Ephemeral方式注册到Zookeeper中,使得HMaster可以随时感知到各个HRegionServer的健康状态。此外,Zookeeper也避免了HMaster的单点问题。
  • HBase Master:每台HRegion服务器都会和HMaster服务器通信,HMaster的主要任务就是要告诉每台HRegion服务器它要维护哪些HRegion。当一台新的HRegion服务器登录到HMaster服务器时,HMaster会告诉它先等待分配数据。而当一台HRegion死机时,HMaster会把它负责的HRegion标记为未分配,然后再把它们分配到其他HRegion服务器中。
  • HRegionServer:HRegionServer主要负责响应用户I/O请求,向HDFS文件系统中读写数据,是HBase中最核心的模块。

2.2. Hbase分布式集群各服务器的相关配置

3. HBase详细配置信息

参照官网:http://hbase.apache.org/book.html#quickstart

3.1. 在hbase-env.sh配置JavaHome

#导出JAVA_HOME,保证一定有JAVA的环境
export JAVA_HOME=/opt/modules/jdk1.8.0_144
#修改zookeeper,不使用内置的zookeeper实例,使用我们自己安装的zookeeper
export HBASE_MANAGES_ZK=false

3.2. 在hbase-site.xml配置HBase的主配置信息

<!--设置hbase的根目录-->
<property>
    <name>hbase.rootdir</name>
    <value>hdfs://node01.ouyang.com:9000/hbase</value>
</property>
<!--开启hbase集群分布式-->
<property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
</property>
<!—Hbase的Zookeeper的信息存放目录-->
<property>
    <name>hbase.zookeeper.property.dataDir</name>
    <value>/export/data/hbase/zookeeper/</value>
  </property>
<!--zookeeper的地址列表-->
<property>
    <name>hbase.zookeeper.quorum</name>
<value>node01.ouyang.com,node02.ouyang.com,node03.ouyang.com</value>
</property>

3.3. 在regionservers中配置各个节点的ip地址

node01.ouyang.com
node02.ouyang.com
node03.ouyang.com

3.4. 在conf文件夹下新建backup-masters文件配置备份

#新建配置文件
touch backup-masters
#在该文件中配置备份节点的ip地址即可
node02.ouyang.com

3.5. 将HBase分发给其他节点

scp -r /export/servers/hbase/ node02.ouyang.com:$PWD
scp -r /export/servers/hbase/ node03.ouyang.com:$PWD

4. HBase的服务启动与测试

启动HBase之前需启动ZookeeperHDFS

4.1. 逐个服务器节点启动HBase

#在节点1的HBase安装目录的bin目录下启动HBase Master
./hbase-daemon.sh start master
#在三节点启动regionserver
./hbase-daemon.sh start regionserver

4.2. 一键启动

#在HBase的bin目录下执行如下命令
./start-hbase.sh

4.3. HBase测试

访问地址 :http://node01.ouyang.com:60010

5. HBase环境变量设置

export HBASE_HOME=/export/servers/hbase
export PATH=${HBASE_HOME}/bin:$PATH
重新加载环境变量的配置文件:source /etc/profile

6. HBase一键启动脚本

步骤一:在onekey文件夹下创建启动脚本文件
touch starthbase.sh
chmod 777 starthbase.sh
touch stophbase.sh
chmod 777 stophbase.sh
步骤二:编辑启动和停止脚本
启动脚本:/export/servers/hbase/bin/start-hbase.sh
停止脚本:/export/servers/hbase/bin/stop-hbase.sh

 

posted on 2019-03-29 10:26  电光闪烁  阅读(290)  评论(0编辑  收藏  举报

导航