ZooKeeper集群操作

集群操作

集群安装

  • 集群规划

    在 hadoop102、hadoop103 和 hadoop104 三个节点上都部署 Zookeeper。 思考:如果是 10 台服务器,需要部署多少台 Zookeeper?

  • 解压安装

    • 在 hadoop102 解压 Zookeeper 安装包到/opt/module/目录下

      [atguigu@hadoop102 software]$ tar -zxvf apache-zookeeper-3.5.7-
      bin.tar.gz -C /opt/module/
    • 修改 apache-zookeeper-3.5.7-bin 名称为 zookeeper-3.5.7

      [atguigu@hadoop102 module]$ mv apache-zookeeper-3.5.7-bin/ zookeeper-3.5.7
  • 配置服务器编号

    • 在/opt/module/zookeeper-3.5.7/这个目录下创建 zkData

      [atguigu@hadoop102 zookeeper-3.5.7]$ mkdir zkData
    • 在/opt/module/zookeeper-3.5.7/zkData 目录下创建一个 myid 的文件

      [atguigu@hadoop102 zkData]$ vi myid

      在文件中添加与 server 对应的编号(注意:上下不要有空行,左右不要有空格)

      2

      注意:添加 myid 文件,一定要在 Linux 里面创建,在 notepad++里面很可能乱码

    • 拷贝配置好的 zookeeper 到其他机器上

      [atguigu@hadoop102 module ]$ xsync zookeeper-3.5.7

      并分别在 hadoop103、hadoop104 上修改 myid 文件中内容为 3、4

  • 配置zoo.cfg文件

    • 重命名/opt/module/zookeeper-3.5.7/conf 这个目录下的 zoo_sample.cfg 为 zoo.cfg

      [atguigu@hadoop102 conf]$ mv zoo_sample.cfg zoo.cfg
    • 打开 zoo.cfg 文件

      [atguigu@hadoop102 conf]$ vim zoo.cfg

      #修改数据存储路径配置

      dataDir=/opt/module/zookeeper-3.5.7/zkData

      #增加如下配置

      #######################cluster########################## server.2=hadoop102:2888:3888

      server.3=hadoop103:2888:3888

      server.4=hadoop104:2888:3888

    • 配置参数解读

      server.A=B:C:D

      A 是一个数字,表示这个是第几号服务器;

      集群模式下配置一个文件 myid,这个文件在 dataDir 目录下,这个文件里面有一个数据 就是 A 的值,Zookeeper 启动时读取此文件,拿到里面的数据与 zoo.cfg 里面的配置信息比 较从而判断到底是哪个 server。

      B 是这个服务器的地址;

      C 是这个服务器 Follower 与集群中的 Leader 服务器交换信息的端口;

      D 是万一集群中的 Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的 Leader,而这个端口就是用来执行选举时服务器相互通信的端口。

    • 同步zoo.cfg配置文件

      [atguigu@hadoop102 conf]$ xsync zoo.cfg
  • 集群操作

    • 分别启动 Zookeeper

      [atguigu@hadoop102 zookeeper-3.5.7]$ bin/zkServer.sh start
      [atguigu@hadoop103 zookeeper-3.5.7]$ bin/zkServer.sh start
      [atguigu@hadoop104 zookeeper-3.5.7]$ bin/zkServer.sh start
    • 查看状态

      [atguigu@hadoop102 zookeeper-3.5.7]# bin/zkServer.sh status
      JMX enabled by default
      Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg
      Mode: follower
      [atguigu@hadoop103 zookeeper-3.5.7]# bin/zkServer.sh status
      JMX enabled by default
      Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg
      Mode: leader
      [atguigu@hadoop104 zookeeper-3.4.5]# bin/zkServer.sh status
      JMX enabled by default
      Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg
      Mode: follower

选举机制

ZK 集群启动停止脚本

  • 在 hadoop102 的/home/atguigu/bin 目录下创建脚本

    [atguigu@hadoop102 bin]$ vim zk.sh

    在脚本中编写如下内容

    #!/bin/bash
    case $1 in
    "start"){
    for i in hadoop102 hadoop103 hadoop104
    do
     echo ---------- zookeeper $i 启动 ------------
    ssh $i "/opt/module/zookeeper-3.5.7/bin/zkServer.sh 
    start"
    done
    };;
    "stop"){
    for i in hadoop102 hadoop103 hadoop104
    do
     echo ---------- zookeeper $i 停止 ------------ 
    ssh $i "/opt/module/zookeeper-3.5.7/bin/zkServer.sh 
    stop"
    done
    };;
    "status"){
    for i in hadoop102 hadoop103 hadoop104
    do
     echo ---------- zookeeper $i 状态 ------------ 
    ssh $i "/opt/module/zookeeper-3.5.7/bin/zkServer.sh 
    status"
    done
    };;
    esac
  • 增加脚本执行权限

    [atguigu@hadoop102 bin]$ chmod u+x zk.sh
  • Zookeeper 集群启动脚本

    [atguigu@hadoop102 module]$ zk.sh start
  • Zookeeper 集群停止脚本

    [atguigu@hadoop102 module]$ zk.sh stop

客户端命令行操作

命令行语法

命令基本语法 功能描述
help 显示所有操作命令
ls path 使用 ls 命令来查看当前 znode 的子节点 [可监听] -w 监听子节点变化 -s 附加次级信息
create 普通创建 -s 含有序列 -e 临时(重启或者超时消失)
get path 获得节点的值 [可监听] -w 监听节点内容变化 -s 附加次级信息
set 设置节点的具体值
stat 查看节点状态
delete 删除节点
deleteall 递归删除节点
  • 启动客户端

    [atguigu@hadoop102 zookeeper-3.5.7]$ bin/zkCli.sh -server hadoop102:2181
  • 显示所有操作命令

    [zk: hadoop102:2181(CONNECTED) 1] help

znode节点数据信息

  • 查看当前znode中所包含的内容

    [zk: hadoop102:2181(CONNECTED) 0] ls /
    [zookeeper]
  • 查看当前节点详细数据

    [zk: hadoop102:2181(CONNECTED) 5] ls -s /
    [zookeeper]cZxid = 0x0
    ctime = Thu Jan 01 08:00:00 CST 1970
    mZxid = 0x0
    mtime = Thu Jan 01 08:00:00 CST 1970
    pZxid = 0x0
    cversion = -1
    dataVersion = 0
    aclVersion = 0
    ephemeralOwner = 0x0
    dataLength = 0
    numChildren = 1
    • czxid:创建节点的事务 zxid

      每次修改 ZooKeeper 状态都会产生一个 ZooKeeper 事务 ID。事务 ID 是 ZooKeeper 中所 有修改总的次序。每次修改都有唯一的 zxid,如果 zxid1 小于 zxid2,那么 zxid1 在zxid2 之 前发生。

    • ctime:znode 被创建的毫秒数(从 1970 年开始)

    • mzxid:znode 最后更新的事务 zxid

    • mtime:znode 最后修改的毫秒数(从 1970 年开始)

    • pZxid:znode 最后更新的子节点 zxid

    • cversion:znode 子节点变化号,znode 子节点修改次数

    • dataversion:znode 数据变化号

    • aclVersion:znode 访问控制列表的变化号

    • ephemeralOwner:如果是临时节点,这个是 znode 拥有者的 session id。如果不是 临时节点则是 0。

    • dataLength:znode 的数据长度

    • numChildren:znode 子节点数量

节点类型(持久/短暂/有序号/无序号)

  • 分别创建2个普通节点(永久节点 + 不带序号)

    [zk: localhost:2181(CONNECTED) 3] create /sanguo "diaochan"
    Created /sanguo
    [zk: localhost:2181(CONNECTED) 4] create /sanguo/shuguo "liubei"
    Created /sanguo/shuguo

    注意:创建节点时,要赋值

  • 获得节点的值

    [zk: localhost:2181(CONNECTED) 5] get -s /sanguo
    diaochan
    cZxid = 0x100000003
    ctime = Wed Aug 29 00:03:23 CST 2018
    mZxid = 0x100000003
    mtime = Wed Aug 29 00:03:23 CST 2018
    pZxid = 0x100000004
    cversion = 1
    dataVersion = 0
    aclVersion = 0
    ephemeralOwner = 0x0
    dataLength = 7
    numChildren = 1
    [zk: localhost:2181(CONNECTED) 6] get -s /sanguo/shuguo
    liubei
    cZxid = 0x100000004
    ctime = Wed Aug 29 00:04:35 CST 2018
    mZxid = 0x100000004
    mtime = Wed Aug 29 00:04:35 CST 2018
    pZxid = 0x100000004
    cversion = 0
    dataVersion = 0
    aclVersion = 0
    ephemeralOwner = 0x0
    dataLength = 6
    numChildren = 0
  • 创建带序号的节点(永久节点 + 带序号)

    • 先创建一个普通的根节点/sanguo/weiguo

      [zk: localhost:2181(CONNECTED) 1] create /sanguo/weiguo "caocao"
      Created /sanguo/weiguo
    • 创建带序号的节点

      [zk: localhost:2181(CONNECTED) 2] create -s 
      /sanguo/weiguo/zhangliao "zhangliao"
      Created /sanguo/weiguo/zhangliao0000000000
      [zk: localhost:2181(CONNECTED) 3] create -s 
      /sanguo/weiguo/zhangliao "zhangliao"
      Created /sanguo/weiguo/zhangliao0000000001
      [zk: localhost:2181(CONNECTED) 4] create -s 
      /sanguo/weiguo/xuchu "xuchu"
      Created /sanguo/weiguo/xuchu0000000002

      如果原来没有序号节点,序号从 0 开始依次递增。如果原节点下已有 2 个节点,则再排 序时从 2 开始,以此类推。

  • 创建短暂节点(短暂节点 + 不带序号 or 带序号)

    • 创建短暂的不带序号的节点

      [zk: localhost:2181(CONNECTED) 7] create -e /sanguo/wuguo "zhouyu"
      Created /sanguo/wuguo
    • 创建短暂的带序号的节点

      [zk: localhost:2181(CONNECTED) 2] create -e -s /sanguo/wuguo"zhouyu"
      Created /sanguo/wuguo0000000001
    • 在当前客户端是能查看到的

      [zk: localhost:2181(CONNECTED) 3] ls /sanguo 
      [wuguo, wuguo0000000001, shuguo]
    • 退出当前客户端然后再重启客户端

      [zk: localhost:2181(CONNECTED) 12] quit
      [atguigu@hadoop104 zookeeper-3.5.7]$ bin/zkCli.sh
    • 再次查看根目录下短暂节点已经删除

      [zk: localhost:2181(CONNECTED) 0] ls /sanguo
      [shuguo]
      
  • 修改节点数据值

    [zk: localhost:2181(CONNECTED) 6] set /sanguo/weiguo "simayi"

监听器原理

客户端注册监听它关心的目录节点,当目录节点发生变化(数据改变、节点删除、子目 录节点增加删除)时,ZooKeeper 会通知客户端。监听机制保证 ZooKeeper 保存的任何的数 据的任何改变都能快速的响应到监听了该节点的应用程序。

  • 节点的值变化监听

    • 在 hadoop104 主机上注册监听/sanguo 节点数据变化

      [zk: localhost:2181(CONNECTED) 26] get -w /sanguo 
    • 在 hadoop103 主机上修改/sanguo 节点的数据

      [zk: localhost:2181(CONNECTED) 1] set /sanguo "xisi"
    • 观察 hadoop104 主机收到数据变化的监听

      WATCHER::
      WatchedEvent state:SyncConnected type:NodeDataChanged 
      path:/sanguo

      注意:在hadoop103再多次修改/sanguo的值,hadoop104上不会再收到监听。因为注册 一次,只能监听一次。想再次监听,需要再次注册。

  • 节点的子节点变化监听(路径变化)

    • 在 hadoop104 主机上注册监听/sanguo 节点的子节点变化

      [zk: localhost:2181(CONNECTED) 1] ls -w /sanguo
      [shuguo, weiguo]
    • 在 hadoop103 主机/sanguo 节点上创建子节点

      [zk: localhost:2181(CONNECTED) 2] create /sanguo/jin "simayi"
      Created /sanguo/jin
    • 观察 hadoop104 主机收到子节点变化的监听

      WATCHER::

      WatchedEvent state:SyncConnected type:NodeChildrenChanged

      path:/sanguo

      注意:节点的路径变化,也是注册一次,生效一次。想多次生效,就需要多次注册。

节点删除与查看

  • 删除节点

    [zk: localhost:2181(CONNECTED) 4] delete /sanguo/jin
  • 递归删除节点

    [zk: localhost:2181(CONNECTED) 15] deleteall /sanguo/shuguo
  • 查看节点状态

    [zk: localhost:2181(CONNECTED) 17] stat /sanguo
    cZxid = 0x100000003
    ctime = Wed Aug 29 00:03:23 CST 2018
    mZxid = 0x100000011
    mtime = Wed Aug 29 00:21:23 CST 2018
    pZxid = 0x100000014
    cversion = 9
    dataVersion = 1
    aclVersion = 0
    ephemeralOwner = 0x0
    dataLength = 4
    numChildren = 1

客户端API操作

前提:保证 hadoop102、hadoop103、hadoop104 服务器上 Zookeeper 集群服务端启动。

IDEA环境搭建

  • 创建一个工程:zookeeper

  • 添加pom文件

    <dependencies>
        <dependency>
        <groupId>junit</groupId>
        <artifactId>junit</artifactId>
        <version>RELEASE</version>
        </dependency>
        
        <dependency>
        <groupId>org.apache.logging.log4j</groupId>
        <artifactId>log4j-core</artifactId>
        <version>2.8.2</version>
        </dependency>
        
        <dependency>
        <groupId>org.apache.zookeeper</groupId>
        <artifactId>zookeeper</artifactId>
        <version>3.5.7</version>
        </dependency>
    </dependencies>
  • 拷贝log4j.properties文件到项目根目录

    需要在项目的 src/main/resources 目录下,新建一个文件,命名为“log4j.properties”,在 文件中填入。

    log4j.rootLogger=INFO, stdout
    log4j.appender.stdout=org.apache.log4j.ConsoleAppender
    log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
    log4j.appender.stdout.layout.ConversionPattern=%d %p [%c]- %m%n 
    log4j.appender.logfile=org.apache.log4j.FileAppender
    log4j.appender.logfile.File=target/spring.log
    log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
    log4j.appender.logfile.layout.ConversionPattern=%d %p [%c]- %m%n 
    
  • 创建包名com.atguigu.zk

  • 创建类名称zkClient

创建Zookeeper客户端

private String connectString = "hadoop102:2181,hadoop103:2181,hadoop104:2181";
    private int sessionTimeout = 2000;
    public ZooKeeper zkClient;

    @Before
    public void init() throws IOException {
        zkClient = new ZooKeeper(connectString, sessionTimeout, new Watcher() {
            @Override
            public void process(WatchedEvent watchedEvent) {
//                List<String> children = null;
//                try {
//                    children = zkClient.getChildren("/", true);
//                    for (String child : children) {
//                        System.out.println(child);
//                    }
//                } catch (KeeperException e) {
//                    e.printStackTrace();
//                } catch (InterruptedException e) {
//                    e.printStackTrace();
//                }
            }
        });
    }

创建子节点

@Test
public void create() throws InterruptedException, KeeperException {
// 参数 1:要创建的节点的路径; 参数 2:节点数据 ; 参数 3:节点权限 ;参数 4:节点的类型
   String nodeCreated = zkClient.create("/atguigu""ss.avi".getBytes(),ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
}

测试:在 hadoop102 的 zk 客户端上查看创建节点情况

[zk: localhost:2181(CONNECTED) 16] get -s /atguigu shuaige

获取子节点并监听节点变化

// 获取子节点
@Test
public void getChildren() throws Exception {
    List<String> children = zkClient.getChildren("/"true);
    for (String child : children) {
     System.out.println(child);
    }
 // 延时阻塞
 Thread.sleep(Long.MAX_VALUE);
}
  • 在 IDEA 控制台上看到如下节点:

    zookeeper sanguo atguigu

  • 在 hadoop102 的客户端上创建再创建一个节点/atguigu1,观察 IDEA 控制台

    [zk: localhost:2181(CONNECTED) 3] create /atguigu1 "atguigu1"

  • 在 hadoop102 的客户端上删除节点/atguigu1,观察 IDEA 控制台

    [zk: localhost:2181(CONNECTED) 4] delete /atguigu1

判断 Znode 是否存在

// 判断 znode 是否存在
@Test
public void exist() throws Exception {
    Stat stat = zkClient.exists("/atguigu"false);
    System.out.println(stat == null ? "not exist" : "exist");
}

客户端向服务端写数据流程

posted @ 2022-02-04 21:52  逆十字  阅读(90)  评论(1)    收藏  举报