k8s-StatefulSet控制器-十四

一、StatefulSet概述

RC、Deployment、DaemonSet都是面向无状态的服务,它们所管理的Pod的IP、名字,启停顺序等都是随机的,而StatefulSet管理所有有状态的服务,比如MySQL、MongoDB集群等。
StatefulSet所管理的Pod拥有固定的Pod名称,启停顺序,在StatefulSet中,Pod名字称为网络标识(hostname),还必须要用到共享存储。
在Deployment中,与之对应的服务是service,而在StatefulSet中与之对应的headless service,headless service,即无头服务,与service的区别就是它没有Cluster IP,解析它的名称时将返回该Headless Service对应的全部Pod的Endpoint列表。

  StatefulSet其应用场景包括:

  • 稳定的持久化存储,即Pod重新调度后还是能访问到相同的持久化数据,基于PVC来实现;
  • 稳定的网络标志,即Pod重新调度后其PodName和HostName不变,基于Headless Service(即没有Cluster IP的Service)来实现;
  • 有序部署,有序扩展,即Pod是有顺序的,在部署或者扩展的时候要依据定义的顺序依次依次进行(即从0到N-1,在下一个Pod运行之前所有之前的Pod必须都是Running和Ready状态),基于init containers来实现;
  • 有序收缩,有序删除(即从N-1到0);

从上面的应用场景可以发现,StatefulSet由以下几个部分组成:

  • 用于定义网络标志(DNS domain)的Headless Service
  • 用于创建PersistentVolumes的volumeClaimTemplates
  • 定义具体应用的StatefulSet

二、组件

  三个组件:headless service、StatefulSet、volumeClaimTemplate

  (1)headless service

在deployment中,每一个pod是没有名称,是无序的;而statefulset中要求是必须有序的,每一个pod的名称必须是固定的。当节点挂了、删了,重建之后的标识符是不变的,每一个节点的节点名称是不能改变的。pod名称是作为识别pod的唯一标识符,必须保证其标识符的稳定持久有效;

为了实现标识符的稳定唯一,就需要一个headless service 解析直达后端pod的ip地址,它还会还给每个pod配置一个唯一的名称。

  (2)volumeClaimTemplate

大部分有状态副本集都会用到持久存储,但是因为数据是不一样的,每个节点都需要自己专用的存储。在deployment中pod模板中创建的存储卷是一个共享的存储卷,多个pod使用同一个存储卷,而statefulset作为面向有状态的服务,定义中的每一个pod都不能使用同一个存储卷,由此基于pod模板创建pod是不适用的,这就需要引入volumeClainTemplate,当在使用statefulset创建pod时,会自动生成一个PVC,从而请求绑定一个PV,从而有自己专用的存储卷。

实验环境:四台主机  

    192.168.3.100   master
    192.168.3.101    node01
    192.168.3.102    node02
    192.168.3.103    store

 

  

三、statefulSet使用

   查看资源定义清单字段:

  [root@master ~]# kubectl explain statefulset

  [root@master ~]# kubectl explain statefulset.spec
  KIND: StatefulSet
  VERSION: apps/v1

  RESOURCE: spec <Object>

  DESCRIPTION:
    Spec defines the desired identities of pods in this set.

    A StatefulSetSpec is the specification of a StatefulSet.

  FIELDS:

    podManagementPolicy <string>     #Pod管理策略
    replicas <integer>           #副本数量
    revisionHistoryLimit <integer>        #历史版本限制
    selector <Object> -required-          #选择器,必选项
    serviceName <string> -required-      #服务名称,必选项
    template <Object> -required-         #模板,必选项
    updateStrategy <Object>          #更新策略
    volumeClaimTemplates <[]Object>      #存储卷申请模板,列表对象形式

  1、创建pv

  这里先清除了之前课程的pvc、pv、deploy、pod、svc...

  (1)pv资源定义清单:

  [root@master volumes]# vim pv-demo.yaml

  

  

  

  (2)创建

  [root@master volumes]# kubectl apply -f pv-demo.yaml

   

   (2)创建stateful

  (1)资源定义清单

  [root@master statefulset]# vim stateful-demo.yaml

  

  

  (2)创建

  [root@master statefulset]# kubectl apply -f stateful-demo.yaml

   

  查看:

  

  

  (3)删除

   现在有3个pod,删除的时候是从myapp-2开始进行删除的(2-1-0),关闭是逆向关闭(0-1-2);

   现在开两个连接,一个删pod,另一个监控pod状态;

   

  

  然后,现在开两个连接,一个创建pod,另一个监控pod状态;

   

  

  此时PVC不会删除,仍然是存在的,只要还是同一个statefulset,再重新创建pod时,依旧会重新去绑定原来的pvc;

   

  (3)滚动更新、扩展伸缩、版本升级

  (1)

   这里每一个pod的名称都是可以解析的;

   解析格式:

    pod_name.service_name.ns_name.cluster.local

  

  (2)pod的规模扩展、缩容

  扩展:顺序;

   [root@master statefulset]# kubectl scale sts myapp --replicas=5  #扩容至5个

   [root@master ~]# kubectl get pods -w  #动态监控pod,可见先创建myapp-3,再创建myapp-4

  

  

  缩容:逆序;

   [root@master statefulset]# kubectl patch sts myapp -p '{"spec":{"replicas":2}}'  #向配置文件打补丁的方式缩容,缩容至2个;

   

   

  (3)更新策略和版本升级

  查看资源定义清单字段:

  [root@master statefulset]# kubectl explain sts.spec.updateStrategy.rollingUpdate.partition

  以partition方式进行更新,如果更新值为2,只有myapp编号大于等于2的才会进行更新,实现类似于金丝雀部署方式,partition默认为0;

  更新时逆序进行;

  a、重新扩容至5个

  [root@master statefulset]# kubectl patch sts myapp -p '{"spec":{"replicas":5}}'

  

  b、修改更新策略

  [root@master ~]# kubectl patch sts myapp -p '{"spec":{"updateStrategy":{"rollingUpdate":{"partition":4}}}}'  #更新partition大于等于4的;

   c、更新版本

  [root@master ~]# kubectl set image sts/myapp myapp=ikubernetes/myapp:v2

   查看:

  

  

  可见,编号大于等于4的已经更新了,小于4的没有更新;

   (4)将剩余的其他Pod也更新版本

    只需要将更新策略的partition值改为0即可;

   [root@master ~]# kubectl patch sts myapp -p '{"spec":{"updateStrategy":{"rollingUpdate":{"partition":0}}}}'

   

  可见已经都已经更新;

 

posted @ 2019-01-30 17:03  米兰的小铁將  阅读(557)  评论(0编辑  收藏  举报