CentOS 7 Zookeeper 介绍 及 集群安装

原理介绍

ZooKeeper是一个开放源码的分布式应用程序协调服务,它包含一个简单的原语集,分布式应用程序可以基于它实现同步服务,配置维护和命名服务等。

Zookeeper设计目的

  1. 最终一致性:client不论连接到那个Server,展示给它的都是同一个视图。
  2. 可靠性:具有简单、健壮、良好的性能、如果消息m被到一台服务器接收,那么消息m将被所有服务器接收。
  3. 实时性:Zookeeper保证客户端将在一个时间间隔范围内获得服务器的更新信息,或者服务器失效的信息。但由于网络延时等原因,Zookeeper不能保证两个客户端能同时得到刚更新的数据,如果需要最新数据,应该在读数据之前调用sync()接口。
  4. 等待无关(wait-free):慢的或者失效的client不得干预快速的client的请求,使得每个client都能有效的等待。
  5. 原子性:更新只能成功或者失败,没有中间状态。
  6. 顺序性:包括全局有序和偏序两种:全局有序是指如果在一台服务器上消息a在消息b前发布,则在所有Server上消息a都将在消息b前被发布;偏序是指如果一个消息b在消息a后被同一个发送者发布,a必将排在b前面。

Zookeeper工作原理

在zookeeper的集群中,各个节点共有下面3种角色和4种状态:

  • 角色:leader,follower,observer
  • 状态:leading,following,observing,looking

Zookeeper的核心是原子广播,这个机制保证了各个Server之间的同步。实现这个机制的协议叫做Zab协议(ZooKeeper Atomic Broadcast protocol)。Zab协议有两种模式,它们分别是恢复模式(Recovery选主)和广播模式(Broadcast同步)。当服务启动或者在领导者崩溃后,Zab就进入了恢复模式,当领导者被选举出来,且大多数Server完成了和leader的状态同步以后,恢复模式就结束了。状态同步保证了leader和Server具有相同的系统状态。

为了保证事务的顺序一致性,zookeeper采用了递增的事务id号(zxid)来标识事务。所有的提议(proposal)都在被提出的时候加上了zxid。实现中zxid是一个64位的数字,它高32位是epoch用来标识leader关系是否改变,每次一个leader被选出来,它都会有一个新的epoch,标识当前属于那个leader的统治时期。低32位用于递增计数。

每个Server在工作过程中有4种状态:

  • LOOKING:当前Server不知道leader是谁,正在搜寻。
  • LEADING:当前Server即为选举出来的leader。
  • FOLLOWING:leader已经选举出来,当前Server与之同步。
  • OBSERVING:observer的行为在大多数情况下与follower完全一致,但是他们不参加选举和投票,而仅仅接受(observing)选举和投票的结果。

Zookeeper集群节点

  • Zookeeper节点部署越多,服务的可靠性越高,建议部署奇数个节点,因为zookeeper集群是以宕机个数过半才会让整个集群宕机的。
  • 需要给每个zookeeper 1G左右的内存,如果可能的话,最好有独立的磁盘,因为独立磁盘可以确保zookeeper是高性能的。如果你的集群负载很重,不要把zookeeper和RegionServer运行在同一台机器上面,就像DataNodes和TaskTrackers一样。

Zookeeper 集群安装

Zookeeper运行需要java环境,需要安装jdk

注:每台服务器上面都需要安装zookeeper、jdk,建议本地下载好需要的安装包然后上传到服务器上面,服务器上面下载速度太慢。

环境装备

主机名 系统 IP地址 消息端口 通信端口 ZK 版本 JDK 版本
node01 Centos7.5 172.16.1.11 2181 2888:3888 3.4.13 1.8.0_192
node02 Centos7.5 172.16.1.12 2181 2888:3888 3.4.13 1.8.0_192
node03 Centos7.5 172.16.1.13 2181 2888:3888 3.4.13 1.8.0_192

JDK 安装

需要分别在三台机器上都执行下列操作

官网 JDK 下载地址:http://www.oracle.com/technetwork/java/javase/downloads/index.html

JDK 百度网盘下载地址: https://pan.baidu.com/s/1FY90URiD6vEtnckR0kRSFQ 提取码:aiou

下载后上传至三台服务器上。

下面的步骤以第一台为例,后面的其他两台服务器均需要操作此步骤;

cd /opt/soft/

unzip jdk1.8.0_192.zip

mv jdk1.8.0_192 /opt/

ln -s /opt/jdk1.8.0_192 /opt/jdk

ll /opt/jdk* -d
# lrwxrwxrwx 1 root root  17 Mar  1 00:02 /opt/jdk -> /opt/jdk1.8.0_192
# drwxr-xr-x 7 root root 245 Oct  6  2018 /opt/jdk1.8.0_192

配置环境变量,这里只单独为root用户配置,不配置全局的环境变量;

cat >> /root/.bash_profile<<EOF
export JAVA_HOME=/opt/jdk
export JRE_HOME=\$JAVA_HOME/jre
export PATH=\$PATH:\$JAVA_HOME/bin
export CLASSPATH=./:\$JAVA_HOME/lib:\$JAVA_HOME/jre/lib
EOF

source /root/.bash_profile 

java -version

# java version "1.8.0_192"
# Java(TM) SE Runtime Environment (build 1.8.0_192-b12)
# Java HotSpot(TM) 64-Bit Server VM (build 25.192-b12, mixed mode)

zookeeper 安装

需要分别在三台机器上都执行下列操作

# 需要添加所有机器自身的主机名解析
echo >> /etc/hosts <EOF
172.16.1.11 node01
172.16.1.12 node02
172.16.1.13 node03
EOF

cd /opt/soft/

tar xf zookeeper-3.4.13.tar.gz 

mv zookeeper-3.4.13 /opt/

ln -s /opt/zookeeper-3.4.13 /opt/zookeeper_cluster

ls -ld /opt/zookeeper*

# drwxr-xr-x 10  501 games 4096 Jul  1  2018 /opt/zookeeper-3.4.13
# lrwxrwxrwx  1 root root    21 Mar  1 00:50 /opt/zookeeper_cluster -> /opt/zookeeper-3.4.13

服务管理脚本:

cat >/etc/systemd/system/zookeeper.service <<EOF
[Unit]
Description=Zookeeper
Requires=network.target
After=network.target
 
[Service]
User=java
Group=java
Type=forking
Environment=JAVA_HOME=/opt/jdk
WorkingDirectory=/opt/zookeeper_cluster
ExecStart=/opt/zookeeper_cluster/bin/zkServer.sh start /opt/zookeeper_cluster/conf/zoo.cfg
ExecStop=/opt/zookeeper_cluster/bin/zkServer.sh stop /opt/zookeeper_cluster/conf/zoo.cfg
ExecReload=/opt/zookeeper_cluster/bin/zkServer.sh restart /opt/zookeeper_cluster/conf/zoo.cfg
 
[Install]
WantedBy=multi-user.target
EOF

配置

node01 节点配置

mkdir /opt/zookeeper_cluster/{data,logs}

echo "1" > /opt/zookeeper_cluster/data/myid

cd /opt/zookeeper_cluster/conf/

cat > zoo.cfg <<EOF
tickTime=2000
initLimit=10
syncLimit=5
dataLogDir=/opt/zookeeper_cluster/logs
dataDir=/opt/zookeeper_cluster/data
clientPort=2181
autopurge.snapRetainCount=500
autopurge.purgeInterval=24
server.1=172.16.1.11:2888:3888
server.2=172.16.1.12:2888:3888
server.3=172.16.1.13:2888:3888
EOF

node02 节点配置

mkdir /opt/zookeeper_cluster/{data,logs}

echo "2" > /opt/zookeeper_cluster/data/myid

cd /opt/zookeeper_cluster/conf/

cat > zoo.cfg <<EOF
tickTime=2000
initLimit=10
syncLimit=5
dataLogDir=/opt/zookeeper_cluster/logs
dataDir=/opt/zookeeper_cluster/data
clientPort=2181
autopurge.snapRetainCount=500
autopurge.purgeInterval=24
server.1=172.16.1.11:2888:3888
server.2=172.16.1.12:2888:3888
server.3=172.16.1.13:2888:3888
EOF

node03 节点配置

mkdir /opt/zookeeper_cluster/{data,logs}

echo "3" > /opt/zookeeper_cluster/data/myid

cd /opt/zookeeper_cluster/conf/

cat > zoo.cfg <<EOF
tickTime=2000
initLimit=10
syncLimit=5
dataLogDir=/opt/zookeeper_cluster/logs
dataDir=/opt/zookeeper_cluster/data
clientPort=2181
autopurge.snapRetainCount=500
autopurge.purgeInterval=24
server.1=172.16.1.11:2888:3888
server.2=172.16.1.12:2888:3888
server.3=172.16.1.13:2888:3888
EOF

启动并查看服务状态

# 三个节点都执行
systemctl daemon-reload
systemctl start zookeeper && systemctl enable zookeeper

node01

[root@node01 bin]# /opt/zookeeper_cluster/bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /opt/zookeeper_cluster/bin/../conf/zoo.cfg
Mode: follower

node02

[root@node02 bin]#/opt/zookeeper_cluster/bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /opt/zookeeper_cluster/bin/../conf/zoo.cfg
Mode: follower

node03

[root@node03 bin]# /opt/zookeeper_cluster/bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /opt/zookeeper_cluster/bin/../conf/zoo.cfg
Mode: leader
posted @ 2020-03-01 01:14  司家勇  阅读(556)  评论(0编辑  收藏  举报