K8S 调度器--调度说明(二)
Taint 和 Toleration
节点亲和性,是 pod 的一种属性(偏好或硬性要求), 它使 pod 被吸引到一类特定的节点。Taint 则相反,它使节点能够排斥一类特定的 pod
Taint 和 toleration 相互配合,可以用来避免 pod 被分配到不合适的节点上。每个节点上都可以应用一个或多个 taint,这表示对于那些不能容忍这些 taint 的 pod,是不会被该节点接受的。如果将 toleration 应用于 pod上,则表示这些 pod 可以(但不要求)被调度到貝有匹配 taint 的节点上。
污点(Taint)
污点(Taint)的组成
便用 kubectl taint 命令可以给某个 Node 节点设置污点,Node 被设置上污点之后就和 Pod 之间存在了一种相斥的关系,可以让 Node 拒绝 Pod 的调度执行,其至将 Node 已经存在的 Pod 驱逐出去
每个污点的组成如下:
key=value:effect
每个污点有一个 key 和 value 作为污点的标签,其中 value 可以为空,effect 描还污点的作用。当前taint effect 支持如下三个选顶:
- NoSchedule:表示 k8s 将不会将 Pod 调度到貝有该污点的 Node 上
- PreferNoSchedule:表示k8s 将尽量避免将 Pod 调度到具有该污点的 Node 上
- NoExecute:表示 k8s 将不会将 Pod 调度到具有该污点的 Node 上,同会将 Node 上已经存在的 Pod 驱逐出去
设置污点,查看节点污点
# 设置污点
kubectl taint nodes k8s-node01 check=wangyang:NoExecute
# 在节点说明中,查找 Taints 字段,查看污点
kubectl describe node k8s-node01
# 去除污点
kubectl taint nodes k8s-node01 check:NoExecute-
容忍(Tolerations)
设置了污点的 Node 将根据 taint 的 effect: NoSchedule、PreferNoSchedule、NoExecute 和 Pod 之间产生互斥的关系,Pod 将在一定程度上不会被调度到 Node 上。但我们可以在 Pod 上设置(Tolerations),意思是设置了容忍的 Pod 将可以容忍污点的存在,可以被调度到存在的污点的 Node 上。
pod.spec.tolerations
tolerations:
- key: "key1"
operator: "Equal"
value: "value1"
effect: "NoSchedule"
tolerationSeconds: 3600
- key: "key1"
operator: "Equal"
value: "value1"
effect: "NoExecute"
- key: "key2"
operator: "Exists"
effect: "NoSchedule"
- 其中 key, value, effect 要与 Node 上设置的 taint 保持一致
- operator 的值为 Exists 将会忽略 value 值
- tolerationSeconds 用于描述当 Pod 需要被驱逐时可以在 Pod 上继续保留运行的时间
1. 当不指定 key 值时,表示容忍所有的污点 key:
tolerations:
- operator: "Exists"
2. 当不指定 effect 值时,表示容忍所有的污点作用
tolerations:
- key: "key"
operator: "Exists"
3. 有多个 Master 存在时,防止资源浪费,可以如下设置
kubectl taint nodes Node-Name node-role.kubernetes.io/master=:PreferNoSchedule
例子
# 在 k8s-node01 打上污点
kubectl taint nodes k8s-node01 check=wangyang:NoExecute
mkdir ~/schedule
cd ~/schedule
vi pod2.yaml
apiVersion: v1
kind: Pod
metadata:
name: pod-2
labels:
app: pod-2
spec:
containers:
- name: pod-2
image: wangyanglinux/myapp:v1
tolerations:
- key: "check"
operator: "Equal"
value: "wangyang"
effect: "NoExecute"
kubectl apply -f pod2.yaml
kubectl get pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
pod-2 1/1 Running 0 3m33s 10.244.1.64 k8s-node01 <none> <none>
kubectl delete -f pod2.yaml
kubectl taint nodes k8s-node01 check=wangyang:NoExecute-
指定调度节点
Pod.spec.nodeName 将 Pod 直接调度到指定的 Node 节点上会跳过 Scheduler 的调度策略,该匹配规则是强制匹配。
cd ~/schedule
vi pod3.yaml
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: myweb
spec:
replicas: 3
template:
metadata:
labels:
app: myweb
spec:
nodeName: k8s-node01
containers:
- name: myweb
image: wangyanglinux/myapp:v1
ports:
- containerPort: 80
kubectl apply -f pod3.yaml
kubectl get pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
myweb-c7d567d89-9s8vm 1/1 Running 0 62s 10.244.1.105 k8s-node01 <none> <none>
myweb-c7d567d89-mbrls 1/1 Running 0 62s 10.244.1.106 k8s-node01 <none> <none>
myweb-c7d567d89-wgsts 1/1 Running 0 62s 10.244.1.104 k8s-node01 <none> <none>
kubectl delete -f pod3.yaml
Pod.spec.nodeSelector: 通过 kubernetes 的 label-selector 机制选择节点,由调度策略匹配 label, 而后调度 Pod 到目标节点,该匹配规则属于强制约束。
cd schedule/
vi pod4.yaml
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: myweb2
spec:
replicas: 2
template:
metadata:
labels:
app: myweb2
spec:
nodeSelector:
disk: ssd
containers:
- name: myweb2
image: wangyanglinux/myapp:v1
ports:
- containerPort: 80
kubectl apply -f pod4.yaml
kubectl label node k8s-node02 disk=ssd
kubectl get pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
myweb2-6b489856f-4k2kd 1/1 Running 0 40s 10.244.2.41 k8s-node02 <none> <none>
myweb2-6b489856f-twm6t 1/1 Running 0 40s 10.244.2.42 k8s-node02 <none> <none>
# 查看 labels
kubectl get node --show-labels
kubectl delete -f pod4.yaml

浙公网安备 33010602011771号