K8s无状态控制器原理介绍

Pod控制器:

  ReplicationController:早期K8s只有这一个控制器,但后来发现让这一个来完成所有任务,太复杂.因此被废弃.
  ReplicaSet: 它用于帮助用户创建指定数量的Pod副本,并确保Pod副本数量一直满足用户期望的副本数量。
        副本数量"多退少补"等机制。【它可认为就是ReplicationController的新版本。】
   它由三个主要组件组成:
     1. 用户期望的Pod的副本数量.
        2. 标签选择器: 使用它来选择自己管理的Pod
        3. Pod模板: 若标签选择器选择的副本数量不足,则根据Pod模板来新建.
  Deployment: 它用于帮我们管理无状态Pod的最好的控制器.
      它支持滚动更新,回滚,它还提供了声明式配置的功能,它允许我们将来根据声明的配置逻辑来定义,
      所有定义的资源都可随时进行重新声明,只要该资源定义允许动态更新。
  DaemonSet:用于确保集群节点上只运行一个Pod的控制器。它一般用于构建系统级应用时使用。
      它不能定义副本数量,副本数量要根据集群的规模来自动创建, 即: 若集群中新加入了一个
      node节点,DaemonSet将自动使用Pod模板在新节点上创建一个Pod,并精确保障每个节点上仅
      运行一个Pod. 所以此控制器,必须要有Pod模板 和 标签选择器。
      它还有另一个作用:就是用于控制Pod仅运行在指定满足条件的节点上,并精确确保其只运行一个Pod.
    它所管理的Pod:
      1. 必须是守护进程,要持续运行在后台。
      2. 它没有终止那一刻,即便不忙,它也监听文件的变动 或 用户对某套接字的请求
  Job: 主要用于创建一个完整指定任务的Pod,一旦任务完成,就会退出;但是若任务未完成,则会重新启动,直到任务完成.
  Cronjob: 它是定义一个周期性任务,Pod启动后,和Job启动的Pod类似,也是任务执行完成后才会终止重启。
      同时它还会自动处理一个任务还未完成,下一个启动时间已经到了的问题。


控制器示例:
  ReplicaSet控制器示例:
  #若想了解下面每个参数的含义,可查看 kubectl  explain  replicaset

  vim replicaset.yaml
    apiVersion: apps/v1           #一般来说,一个清单文件的基本格式:
    kind: ReplicaSet      #apiVersion,kind,metadata这是必须的,下面对 spec是replicaSet的一个必要参数.
    metadata:          #要查看spec支持那些参数: kubectl  explain  replicaset.spec 即可.
      name: myapp
      namespace: default
    spec:
      replicas: 2         #这里是定义ReplicaSet的副本数量.
      selector:
       matchLabels:
        app: myapp
        release: canary
      template:    #查看template支持那些参数: kubectl  explain replicaset.spec.template即可查看.
        metadata:
         name: myapp-pod    #通常Pod的名称空间必须和控制器的名称空间一致,故可省略.
         labels:      #这里创建Pod的标签必须和selector的标签符合,否则此Pod将永久被创建下去。
          app: myapp
          release: canary
        spec:
         containers:
         -  name: myapp-container
          image: busybox
          ports:
          -  name:http
           containerPort: 80

#启动:
  kubectl create -f replicaSet.yaml
  kubectl get pods
  kubectl get rs

  kubectl delete pods PodName
  kubectl get pods        #可以查看控制器控制下的Pod个数少了,会自动被创建.

  #接下来测试,控制器控制下的Pod多了会怎么
    kubectl label pods PodName release=canary,app=myapp #给Pod添加标签
    kubectl get pods --show-labels
    注:
        此测试也说明: 在定义控制器所管理的Pod时,一定要精确定义Pod的标签,
     尽量避免出现,用户创建的Pod标签正好和你定义的控制器符合,产生悲剧!
    另外:
      service 和 控制器它们没有直接关系,只是它们都使用标签选择器来获取Pod,
      这也意味着一个Service可管理多个控制器所创建的Pod.

#控制器的配置是支持动态更新的.
  kubectl edit rs replicaset   #将其副本数量修改一个再查看效果。

#它还支持动态更新Pod的镜像版本.
  kubectl edit rs replicaset
  kubectl get rs -o wide
  注:
   这里查看到Pod镜像版本修改了,但实际上正在运行的Pod的镜像版本并没有改变.
  这时若你手动删除一个Pod,新建的Pod将使用新版本创建.
  这样就可以轻松实现 金丝雀 发布更新了,即: 先删除一个,让一个Pod使用新版本,使用新版本Pod
  会得到一部分流量,这一部分流量就可以作为测试流量,若2天后,没有发现用户抱怨Bug,则可以
  手动将Pod一个一个删除,并替换成新版本的Pod。

 

Deployment:

  

    它是ReplicaSet控制器的控制器,即: Deployment控制器它不直接用于管理Pod,它是用来管理
  ReplicaSet控制器的,这样做的好处是,可实现动态更新和回滚,如上图所示,它能实现
  多种更新方式,上图显示的是 灰度更新 过程,它将ReplicaSetV1控制的Pod,每次一个的
  删除,并在ReplicaSetV2上重建,若ReplicaSetV2上线后,有问题,还能快速回滚到V1.
  通常来说Deployment不会直接删除ReplicaSet,它会保留10个版本,以便回滚使用。

 它通过更新Pod的粒度来实现 灰度更新,金丝雀更新,蓝绿更新。
 它控制Pod创建粒度是 比如:
  1.在删除时,必须保障有5个Pod,但可临时多一个Pod,则它会创建一个,删除一个. 直到全部替换。
  2.必须保障有5个,但可临时少一个Pod,则它会先删除一个,在创建一个,直到全部替换。
  3.必须保障有5个,但可多一个,也可少一个,此时它会创建一个,删除两个,再创建2个,再删除2个,直到全部替换。
  4.还有一种是允许临时多出一倍,则它会一次性创建5个,然后直接替换使用新的Pod,在把老的Pod删除。

Deployment控制参数:
  strategy:    #设置更新策略
  type <Recreate|RollingUpdate>    #指定更新策略类型.Recreate: 它是删除一个,重建一个.
                           RollingUpdate: 这是滚动更新。
  rollingUpdate:
    maxSurge: 用于定义滚动更新时,副本最多允许增加几个. 它支持两种值:
          5: 表示副本数最多增加5个。
          20%: 若你有10个Pod副本, 20%就是最多增加2个副本.
    maxUnavailable: 最多允许几个不可用.它也支持整数 或 百分比.
  revisionHistoryLimit <Int>    #设置保存几个历史ReplicaSet版本.默认10个
  paused <boolean>       #是否在更新前先暂停

vim  myapp-deploy.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
     name: myapp-deploy
     namespace: default
spec:
     replicas: 2
     selector:
         matchLabels:
             app:myapp
             release: canary
     template:
            metadata:
                labels:
                     app:myapp
                     release: canary
            spec:
                 cantainers:
                  -   name: myapp
                       image: busybox
                       ports:
                       -   name:http
                           containerPort: 80

 

#编写以上清单文件后,就可以执行:
  kubectl apply -f deploy-demo.yaml

  kubectl get deploy
  kubectl get rs

  vim deploy-demo.yaml
    #修改副本数量为4

  kubectl apply -f deploy-demo.yaml    #修改后再次apply是运行,apply可应用配置多次,并且它会自动反映出清单的变化.

  kubectl describe deploy myapp-deploy    #查看Annotaions,RollingUpdateStrategy.


  #测试动态滚动更新
    vim deploy-demo.yaml
      修改镜像的版本为新版本.

  终端2:
    kubectl get pods -l app=myapp -w

  终端1:
    kubectl apply -f deploy-demo.yaml

  再到终端2上查看滚动更新的效果。
    kubectl get rs -o wide    #可查看到多了一个rs,而且旧版rs的数据都是0.

    kubectl rollout history deployment myapp-deploy    #查看滚动更新的历史

#通过给配置文件打补丁的方式来动态更新:
  kubectl patch deployment myapp-deploy -p '{"spec":{"replicas":5}}'
    注: 这样也可以动态修改 myapp-deploy这个Deployment控制器的参数.

  kubectl get pods #可看到Pod个数已经动态创建了。

#动态修改Deployment控制器滚动更新的策略:
  kubectl patch deployment myapp-deploy -p '{"spec":{"strategy":{"rollingUpdate":{"maxSurge":1,"maxUnavailable":0}}}}'

  kubectl describe deploy myapp-deploy    #查看更新策略

#修改Deployment控制器下Pod的镜像为新版本,然后实现金丝雀更新.
  终端1:
    kubectl get pods -l app=myapp -w

  终端2:
    kubectl set image deployment myapp-deploy myapp=busybox:v3
    kubectl rollout pause deployment myapp-deploy

  终端3:
    kubectl rollout status deployment myapp-deploy

  终端2:
    kubectl rollout resume deployment myapp-deploy

    kubectl get rs -o wide


#回滚到指定版本
  kubectl rollout history deployment myapp-deploy
    deployment.extensions/myapp-deploy
    REVISION CHANGE-CAUSE
      0    <none>
      2    <none>
      3   <none>
      4    <none>
      5    <none>

  kubectl rollout undo deployment myapp-deploy --to-revision=3

  kubectl rollout history deployment myapp-deploy    #可以看到第一版成为第四版.
    deployment.extensions/myapp-deploy
    REVISION CHANGE-CAUSE
      0    <none>
      4    <none>
      5    <none>
      6    <none> #先回到3版本,这里显示为第6版
      7    <none> #接着又尝试回到2版本, 这里显示就是7版本.

 

daemonSet控制器:
  #查看daemonSet控制器的语法
    kubectl explain ds
    kubectl explain ds.spec

vim  ds-demo.yaml
apiVersion: apps/v1
kind: DaemonSet
metadata:
   name: filebeat-ds
   namespace: default
spec:
  selector:
     matchLabels:
       app:filebeat
       release:stable
  template:
    metadata:
       labels:
         app: filebeat
         release: stable
    spec:
      containers:
      -  name: filebeat
         image: ikubernetes/filebeat:5.6.5-alpine
         env:          #env的用法: kubectl explain  pods.spec.containers.env
         - name: REDIS_HOST
           value: redis.default.svc.cluster.local
         - name: REDIS_LOG_LEVEL
           value: info

  #接着使用apply来应用daemonSet控制器的配置清单创建Pod资源.
  kubectl apply -f ds-demo.yaml

#将多个相关的资源定义在一起的方式,这是工作中常用的方式.
vim  ds-demo.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: redis
  namespace: default
spec:
  replicas: 1
  selector:
    matchLabels:
     app: redis
     role: logstor
  template:
    metadata:
     labels:
        app: redis
        role: logstor
     spec:
       containers:
       -  name: redis
          image: redis:4.0-alpine
          ports:
          - name: redis
            containerPort:6379
---      #这表示分隔符.
apiVersion: apps/v1
kind: DaemonSet
metadata:
  name: filebeat-ds
  namespace: default
spec:
  selector:
    matchLabels:
       app:filebeat
       release:stable
  template:
    metadata:
      labels:
       app: filebeat
       release: stable
    spec:
      containers:
      - name: filebeat
        image: ikubernetes/filebeat:5.6.5-alpine
        env:
        -  name: REDIS_HOST
           value: redis.default.svc.cluster.local
           #fiebeat通过环境变量找到redis的前端service,注意这里指定的名字是redis的前端服务名,而非随意写!
        -  name: REDIS_LOG_LEVEL
           value: info

  #因为此前通过daemonSet创建了两个Pod资源,为了避免冲突,先删除Pod资源.
  kubectl delete -f ds-demo.yaml

#接着再同时创建redis和fliebeat两个Pod资源.
  kubectl apply -f ds-demo.yaml

#接着为redis创建一个服务,来暴露redis的服务端口,以便filebeat可以将日志发送给服务,服务再将日志转发给redis.
  kubectl expose deployment redis --port=6379
  kubectl get svc      #查看创建的service

#验证redis是否可以收到filebeat的日志.
  kubectl get pods      #等redis处于running状态就可以登陆查看了.
  kubectl exec -it redis-5b5d.... -- /bin/sh
  / data # netstat -tnl
  / data # nslookup redis.default.svc.cluster.local    #解析redis的域名.
  / data # redis-cli -h redis.default.svc.cluster.local     #验证能否通过域名直接登陆redis
  / data # keys *          #登陆redis成功后,查看是否有key被创建.

#登陆filebeat查看状态
  kubectl exec -it filebeat-ds-h776m -- /bin/sh
  / # ps uax
  / # cat /etc/filebeat/filebeat.yml    #查看其配置文件中redis的定义.
  / # printenv            #查看环境变量.
  / # kill -1 1            #使用-1信号 让filebeat重读配置文件,这会导致Pod重启,不过没事.

#另外,通过-o wide 可以看到daemonSet定义的Pod一定是一个节点上运行一个Pod.
  kubectl get pods -l app=filebeat -o wide    #daemonSet定义的Pod不运行在主节点上,
                      #主要是因为前面部署时,定义了Master节点是不调度的.
#测试时,发现以下问题:
  # kubectl get node
    NAME STATUS ROLES AGE VERSION
    192.168.111.80 Ready node 2d21h v1.13.5
    192.168.111.81 Ready node 2d21h v1.13.5
    192.168.111.84 Ready,SchedulingDisabled master 2d21h v1.13.5 #主节点配置了,不调度,即污点.
    192.168.111.85 NotReady,SchedulingDisabled master 2d21h v1.13.5

  # kubectl get pod -l app=filebeat -o wide
    NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
    filebeat-ds-8gfdr 1/1 Running 0 13m 10.10.171.2 192.168.111.81 <none> <none>
    filebeat-ds-ml2bk 1/1 Running 1 13m 10.10.240.193 192.168.111.84 <none> <none> #竟然运作在主节点上了!!
    filebeat-ds-zfx57 1/1 Running 0 13m 10.10.97.58 192.168.111.80 <none> <none>
    #从运行状态上看, 符合DaemonSet的特性,每个节点都运行一个. 但为啥它能运行在Master上,原因不明?



#daemonSet也是支持滚动更新的,怎么更新?
  kubectl explain ds.spec.updatestrategy.rollingUpdate    #它只支持先删一个在创建一个, 因为一个节点只能运行一个Pod.

#定义daemonSet控制器filebeat-ds 滚动更新其下管理的Pod的image 升级到filebeat:5.6.6-alpine
  kubectl set image daemonsets filebeat-ds filebeat=ikubernetes/filebeat:5.6.6-alpine

#查看Pod的更新过程
  kubectl get pods -w

DaemonSet的更新策略:
  updateStrategy:
  type <RollingUpdate |OnDelete>    #OnDelete: 即删除时创建。

#动态更新DaemonSet:
  kubectl get ds
  kubectl set image daemonSets filebeat-ds filebeat=ikubernetes/filebeat:5.6.6-alpine

  终端2:
    kubectl get pods -w

  #让pod和宿主机的共享名称空间:
  Pods:
    hostNetwork <boolean> #让Pod共享宿主机的网络名称空间,启动Pod后,可直接访问宿主机的80,来访问容器.
    hostPID <boolean>   #这其实就是Docker网络模型中与宿主机共享网络名称空间的模型.
    hostIPC <boolean>

 

posted @ 2019-08-02 12:09  张朝锋  阅读(1666)  评论(0编辑  收藏  举报