zookeeper客户端

session会话机制

client请求和服务端建立连接,服务端会保留和标记当前client的session,包含session过期时间,sessionId,然后服务端开始在session过期时间的基础上倒计时,在这段时间内,client需要向server发送心跳包,目的是让server重置session过期时间

使用quit命令,退出客户端,但是server端的session不会立即消失,使用ls / 依然可以看到创建的临时节点

节点的类型:

  • 持久节点,不加任何参数,默认创建的是持久节点
  • 临时节点: 当客户端断开连接时,这个节点会消失
  • 持久顺序节点: 父节点为他的第一级子节点维护一份时序,标记节点的创建顺序,这个标记其实就是一个数字后缀,作为新节点的名字,数字的范围就是整形的最大值(1024*1024)
  • 临时顺序节点,同上. (临时节点不能再创建的节点)

创建节点时,可以指定每个节点的data信息,zookeeper默认每个节点的数量的最大上限是1M

常用命令

创建节点:

语法 : create /path data

[zk: localhost:2181(CONNECTED) 2] create /changwu 1
Created /changwu
[zk: localhost:2181(CONNECTED) 3] ls /
[changwu, zookeeper]

创建顺序节点

语法create -s /path data

[zk: localhost:2181(CONNECTED) 9] create -s /seq1 1
Created /seq10000000001
[zk: localhost:2181(CONNECTED) 10] ls /
[changwu, zookeeper, seq10000000001]

创建临时节点 (extra)

语法: create -e /path data

[zk: localhost:2181(CONNECTED) 16] create -e /extra1 1
Created /extra1
[zk: localhost:2181(CONNECTED) 17] ls /
[changwu, extra1, zookeeper, seq10000000001]

当客户端断开连接时,临时节点被删除

获取节点和节点指定的元数据

语法: get /path

[zk: localhost:2181(CONNECTED) 22] get /changwu
1  # data 源数据
cZxid = 0x200000008
ctime = Tue Sep 17 12:06:40 CST 2019
mZxid = 0x200000008
mtime = Tue Sep 17 12:06:40 CST 2019
pZxid = 0x200000008
cversion = 0
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 1
numChildren = 0

访问临时节点

注意点,访问顺序节点,需要带上 节点的全称

[zk: localhost:2181(CONNECTED) 37] get /seq10000000001
1
cZxid = 0x200000009
ctime = Tue Sep 17 12:08:16 CST 2019
mZxid = 0x200000009
mtime = Tue Sep 17 12:08:16 CST 2019
pZxid = 0x200000009
cversion = 0
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 1
numChildren = 0

设置元数据

语法: set /path data

[zk: localhost:2181(CONNECTED) 51] ls / 
[changwu, extra1, zookeeper, seq10000000001]
[zk: localhost:2181(CONNECTED) 52] set /changwu 2 
# 创建znode的事务id
cZxid = 0x200000008 
# znode的创建时间
ctime = Tue Sep 17 12:06:40 CST 2019
# 最后修改的znode的事务id
mZxid = 0x20000000b
# znode的最近修改的时间
mtime = Tue Sep 17 12:15:35 CST 2019
# 最后修改/删除/添加znode的事务id
pZxid = 0x200000008
# 对当前znode 子节点 的修改次数
cversion = 0
# 对当前znode节点data的修改的次数
dataVersion = 1
# 对znode的acl修改的次数
aclVersion = 0
# 如果znode是(ephemeral短暂)类型节点,这就是znode所有者的sessionId
# 如果不是(ephemeral短暂)类型,设置为0
ephemeralOwner = 0x0
# znode数据字段的长度
dataLength = 1
# znode子节点数量
numChildren = 0

创建子节点

注意点,创建子节点时添加上父节点的路径
语法: create / 父节点/子节点 子节点data

[zk: localhost:2181(CONNECTED) 67] create /changwu/child1 firstchild 
Created /changwu/child1

列出子节点

语法: ls /父节点

[zk: localhost:2181(CONNECTED) 70] ls /changwu
[child1]

查看znode的状态

语法: stat /path

[zk: localhost:2181(CONNECTED) 73] stat /changwu
# 创建znode节点的事务id
cZxid = 0x200000008
# znode节点的创建时间
ctime = Tue Sep 17 12:06:40 CST 2019
# 最后修改znode的事务id
mZxid = 0x20000000b
# znode的最后修改时间
mtime = Tue Sep 17 12:15:35 CST 2019
# 相对于根节点来说, 最后修还,添加.删除 znode节点的事务id
pZxid = 0x20000000c
# 对当前znode子节点更改的次数
cversion = 1
# 对znode data更改的次数
dataVersion = 1
# 对znode acl 更改的次数
aclVersion = 0
# 如果znode是epemeral类型的节点,则当前值就是znode所有者的sessionid
# 如果znode 不是 ephemeral 类型的,当前值=0
ephemeralOwner = 0x0
# znode data长度
dataLength = 1
# 子节点的数量
numChildren = 1

移除节点1

语法: delete /path
如果当前节点存在子节点,delete 是删除不掉它的

移除节点2

语法: rmr /path

[zk: localhost:2181(CONNECTED) 87] rmr /
changwu          extra1           zookeeper        seq10000000001
[zk: localhost:2181(CONNECTED) 87] rmr /extra1
[zk: localhost:2181(CONNECTED) 88] ls /
[changwu, zookeeper, seq10000000001]

什么是ACL(access control list 访问控制列表)

zookeeper在分布式系统中承担中间件的作用,它管理的每一个节点上可能都存储这重要的信息,因为应用可以读取到任意节点,这就可能造成安全问题,ACL的作用就是帮助zookeeper实现权限控制

  • zookeeper的权限控制基于节点,每个znode可以有不同的权限
  • 子节点不会继承父节点的权限, 访问不了子节点,不代表访问不到子节点

写法: schema🆔permission

Schema: 鉴权的策略

schema 描述
world world代表只有一个用户,anyone 代表全部用户
ip 使用ip地址认证
auth 使用已经添加的认证用户认证
disgest 使用"用户名:密码"方式认证

授权对象 ID

权限授予的用户或实体

权限模式 授权对象
Ip 通常是一个Ip地址或者是Ip段, 例如192.168.0.1 或者 192.168.0.1/12
Digest 自定义, 通常是username:BASE64(SHA-1(username:password)) 例如"foo:uigfuagsfyuagdfyuagdfdalhgf="
World 只有一个ID 就是 anyone
Super 与digest模式一样

权限Permission

权限 简写 描述
delete d 仅可以删除子节点
create c 可以创建子节点
read r 读取当前节点数据,及子节点列表
write w 设置节点数据
admin a 设置节点的访问控制列表

查看ACL

语法getAcl /parentpath

[zk: localhost:2181(CONNECTED) 94] getAcl /changwu
'world,'anyone
: cdrwa

设置ACL: 客户端实例

[zk: localhost:2181(CONNECTED) 102] setAcl /changwu world:anyone:wa
cZxid = 0x200000008
ctime = Tue Sep 17 12:06:40 CST 2019
mZxid = 0x20000000b
mtime = Tue Sep 17 12:15:35 CST 2019
pZxid = 0x20000000c
cversion = 1
dataVersion = 1
aclVersion = 1
ephemeralOwner = 0x0
dataLength = 1
numChildren = 1

再次尝试获取,就没有读权限了,还掉了线

[zk: localhost:2181(CONNECTED) 115] get /changwu
Authentication is not valid : /changwu

设置ACL: auth方式

# 创建节点
[zk: localhost:2181(CONNECTED) 0] create /node2 2
Created /node2

# 添加一个用户
[zk: localhost:2181(CONNECTED) 1] addauth digest lisi:123123
# 给这个node2节点设置一个;lisi的用户,只有这个lisi才拥有node的全部权限
[zk: localhost:2181(CONNECTED) 2] setAcl /node2 auth:lisi:cdrwa
cZxid = 0x2d7
ctime = Fri Sep 27 08:19:58 CST 2019
mZxid = 0x2d7
mtime = Fri Sep 27 08:19:58 CST 2019
pZxid = 0x2d7
cversion = 0
dataVersion = 0
aclVersion = 1
ephemeralOwner = 0x0
dataLength = 1
numChildren = 0

[zk: localhost:2181(CONNECTED) 3] getAcl /node2
'digest,'lisi:dcaK2UREXUmcqg6z9noXkh1bFaM=
: cdrwa

这时候断开客户端的连接, 打开一个新的连接,重试get
# 会发现已经没有权限了
[zk: localhost:2181(CONNECTED) 1] getAcl /node2
Authentication is not valid : /node2

# 重新添加auth
[zk: localhost:2181(CONNECTED) 2] addauth digest lisi:123123
[zk: localhost:2181(CONNECTED) 3] getAcl /node2
'digest,'lisi:dcaK2UREXUmcqg6z9noXkh1bFaM=
: cdrwa

设置ACL: Ip

setAcl /node2 ip:192.168.100.1:cdrwa #设置IP:192.168.100.1 拥有所有权限

设置ACL: Digest方案

  • Digest方案(添加supper也用这种方法)

它使用的密码是经过SHA1和BASE64加密之后得到的,在shell 命令中用如下方法计算

echo -n <user>:<password> | openssl dgst -binary -sha1 | openssl base64

[root@ecs-t6-large-2-linux-20190918000015 ~]# echo -n zhangsan:123456 | openssl dgst -binary -sha1 | openssl base64
jA/7JI9gsuLp0ZQn5J5dcnDQkHA=

例:

给node3添加认证
[zk: localhost:2181(CONNECTED) 9] setAcl /node4 digest:zhangsan:jA/7JI9gsuLp0ZQn5J5dcnDQkHA=

[zk: localhost:2181(CONNECTED) 3] get /node4
Authentication is not valid : /node4 #没有权限
 
[zk: localhost:2181(CONNECTED) 4] addauth digest zhangsan:123456 #添加认证用户
 
[zk: localhost:2181(CONNECTED) 5] get /node4

zookeeper的客户端

原生客户端 ZooKeeper

Zookeeper 存在一个问题,session有存在丢弃的可能性

client--网络中断-->server client和server通过网络发送心跳保持沟通,如果因为网络的原因,client发送的心跳包都没有到达server端, server端的session倒计时机制就会把 session 和 watch全部清除

  • 原生zookeeper客户端
  public static void main(String[] args) throws Exception {
   ZooKeeper client = new ZooKeeper("localhost", 5000, new Watcher() {
            @Override
            public void process(WatchedEvent event) {
                System.err.println("连接,触发");
            }
        });
  Stat stat = new Stat();
  • 创建客户端
   /**
     * 1. path  
     * 2. data  
     * 3. acl 安全模式
     * 4. 持久化/临时 策略
     */
  client.create("/node2","value of node2".getBytes(), (List<ACL>) ZooDefs.Ids.ANYONE_ID_UNSAFE,CreateMode.PERSISTENT);
  • 获取节点数据
client.getData("/node1",true,stat);
  • 监听回调
 String content = new String(  client.getData("/node1", new Watcher() {
            @Override
    public void process(WatchedEvent event) {
        // todo 任何连接上这个节点的客户端修改了这个节点的 data数据,都会引起process函数的回调
        // todo 特点1:  watch只能使用1次
        if (event.getType().equals(Event.EventType.NodeDataChanged)){
            System.err.println("当前节点数据发生了改变");
        }
    }
}, new Stat()));
  • 非阻塞,直接回调
  client.getData("/node1", false, new AsyncCallback.DataCallback() {
            @Override
            public void processResult(int rc, String path, Object ctx, byte[] data, Stat stat) {
                System.out.println("123123");
            }
        },null);

Curator

  • 提供了多种zookeeper集群leader的选举机制
  • 封装了原生的zookeeper client 和 zookeeper server
  • Fluent Api 流式api

  • java API创建客户端
    public static void main(String[] args) throws Exception {
        // 初始化客户端
        // 总共重试三次,每次一秒
         CuratorFramework client = CuratorFrameworkFactory.newClient("localhost:2181",new RetryNTimes(3,100));
         client.start();  // todo instance must be started before calling this method
        // 创建一个节点
        //client.create().withMode(CreateMode.PERSISTENT).forPath("/node3","value of node3".getBytes());

        // 订阅
        String path = "/node1";
        
        /**
         *  todo NodeCache就是对这个path节点内存的缓存
         *  第一次执行会触发, 而且,以后每次node被改变都会执行
         */
        NodeCache  cache = new NodeCache(client,path);

        // cache.start(true); 启动时会同步数据到缓存中, 既然数据一致了,启动时,下面的回调就不会触发
        // cache.start(false); 默认是false, 不会触发
        cache.start();
        cache.getListenable().addListener(new NodeCacheListener(){
            // todo 监听节点值的改变
            @Override
            public void nodeChanged() {
                System.err.println("nodeChanged 执行了");
            }
        });
        
        System.in.read();
    }

也可以使用仅回调一次的api

// 和原生的客户端一样,仅仅触发一次
 client.getData().usingWatcher(new Watcher() {
        @Override
        public void process(WatchedEvent event) {
            System.err.println("process...");
        }
    }).forPath(path);

Curator解决session会话失效

    public static void main(String[] args) throws Exception {
         CuratorFramework client = CuratorFrameworkFactory.newClient("localhost:2181",new RetryNTimes(3,100));
        client.start();  // todo instance must be started before calling this method

        client.getConnectionStateListenable().addListener(new ConnectionStateListener() {
            @Override
            public void stateChanged(CuratorFramework curatorFramework, ConnectionState connectionState) {
                if(connectionState.equals(ConnectionState.LOST)){
                    // todo 重新连接
                }
            }
        });
        // todo dosomething
    }
posted @ 2019-09-17 21:49 赐我白日梦 阅读(...) 评论(...) 编辑 收藏