hbase安装(靠谱版)


1、前提:
1、得安装的有hdfs系统
2、得安装zookeeper集群

2、准备安装包

[hadoop@node01 install]$ cd /kkb/soft/

[hadoop@node01 soft]$ tar -zxvf hbase-2.2.6-bin.tar.gz -C  /kkb/install/

3.1 修改hbase-env.sh文件

  • 修改文件
[hadoop@node01 soft]$ cd /kkb/install/hbase-2.2.6/conf
[hadoop@node01 conf]$ vim hbase-env.sh
  • 修改如下两项内容,值如下

在修改前注意删除前面的#,取消注释。

export JAVA_HOME=/kkb/install/jdk1.8.0_141
export HBASE_MANAGES_ZK=false   

3.2、修改hbase-site.xml文件

  • 修改文件
[hadoop@node01 conf]$ vim hbase-site.xml
  • 内容如下

注意:!!在修改hbase-site.xml文件时不要删除原有内容,而是把以下内容添加上去

<configuration>
         <!-- 指定hbase在HDFS上存储的路径 -->
        <property>
                <name>hbase.rootdir</name>
                <value>hdfs://node01:8020/hbase</value>
        </property>
        <!-- 指定hbase是否分布式运行 -->
        <property>
                <name>hbase.cluster.distributed</name>
                <value>true</value>
        </property>
        <!-- 指定zookeeper的地址,多个用“,”分割 -->
        <property>
                <name>hbase.zookeeper.quorum</name>
                <value>node01,node02,node03:2181</value>
        </property>
        <!--指定hbase管理页面-->
        <property>
              <name>hbase.master.info.port</name>
              <value>60010</value>
        </property>
        <!-- 在分布式的情况下一定要设置,不然容易出现Hmaster起不来的情况 -->
        <property>
                <name>hbase.unsafe.stream.capability.enforce</name>
                <value>false</value>
        </property>
</configuration>

3.3 修改regionservers文件

  • 修改文件
[hadoop@node01 conf]$ vim regionservers
  • 指定HBase集群的从节点;原内容清空,添加如下三行
node01
node02
node03

3.4、修改back-masters文件

  • 创建back-masters配置文件,里边包含备份HMaster节点的主机名,每个机器独占一行,实现HMaster的高可用
[hadoop@node01 conf]$ vim backup-masters
  • 将node02作为备份的HMaster节点,问价内容如下
node02

4、分发安装包

将 node01上的HBase安装包,拷贝到其他机器上

[hadoop@node01 conf]$ cd /kkb/install
[hadoop@node01 install]$ scp -r hbase-2.2.6/ node02:/kkb/install
[hadoop@node01 install]$ scp -r hbase-2.2.6/ node03:/kkb/install

5、创建软连接

  • 注意:三台机器均做如下操作
  • 因为HBase集群需要读取hadoop的core-site.xml、hdfs-site.xml的配置文件信息,所以我们三台机器都要执行以下命令,在相应的目录创建这两个配置文件的软连接
ln -s /kkb/install/hadoop-3.1.4/etc/hadoop/hdfs-site.xml  /kkb/install/hbase-2.2.6/conf/hdfs-site.xml
ln -s /kkb/install/hadoop-3.1.4/etc/hadoop/core-site.xml  /kkb/install/hbase-2.2.6/conf/core-site.xml

6、添加HBase环境变量

  • 注意:三台机器均执行以下命令,添加环境变量
sudo vim /etc/profile
  • 文件末尾添加如下内容
export HBASE_HOME=/kkb/install/hbase-2.2.6
export PATH=$PATH:$HBASE_HOME/bin
  • 重新编译/etc/profile,让环境变量生效
source /etc/profile

7、HBase的启动与停止

  • 需要提前启动HDFS及ZooKeeper集群
    • 如果没开启hdfs,请在node01运行start-dfs.sh命令
    • 如果没开启zookeeper,请在3个节点分别运行zkServer.sh start命令
  • 第一台机器node01(HBase主节点)执行以下命令,启动HBase集群
[hadoop@node01 ~]$ start-hbase.sh

 

  • 启动完后,jps查看HBase相关进程

    node01、node02上有进程HMaster、HRegionServer

    node03上有进程HRegionServer

  • 我们也可以执行以下命令,单节点启动相关进程

#HMaster节点上启动HMaster命令
hbase-daemon.sh start master

#启动HRegionServer命令
hbase-daemon.sh start regionserver

 

8、访问WEB页面

9、停止HBase集群

  • 停止HBase集群的正确顺序

    • node01上运行,关闭hbase集群
    [hadoop@node01 ~]$ stop-hbase.sh

     

    • 关闭ZooKeeper集群
    • 关闭Hadoop集群
    • 关闭虚拟机
    • 关闭笔记本



参考:
https://www.cnblogs.com/mjhjl/p/15250477.html
https://www.cnblogs.com/huangwenchao0821/p/14746625.html

 













 

posted @ 2021-09-23 17:56  yasai  阅读(37)  评论(0)    收藏  举报