一、K8S介绍
K8S的特性
自我修复:
在节点故障时重新启动失败的容器,替换和重新部署,保证预期的副本数量;杀死健康检查失败的容器,并且在未准备好之前不会处理客户端请求,确保线上服务不中断
弹性伸缩:
使用命令、UI或者基于CPU使用情况自动快速扩容和缩容应用程序实例,保证应用业务高峰并发时的高可用性,业务低峰时回收资源,以最小成本运行服务
自动部署和回滚:
K8S采用滚动更新策略更新应用,一次更新一个Pod,而不是同时删除所有Pod,如果更新过程中出现问题,将回滚更改,确保升级不会影响业务
服务发现和负载均衡:
K8S为多个容器提供一个统一访问入口(内部IP地址和一个DNS名称),并且负载均衡关联的所有容器,使得用户无需考虑容器IP问题
机密和配置管理:
管理机密数据和应用程序配置,而不需要把敏感数据暴露在镜像里,提高敏感数据安全性,并可以将一些常用的配置存储在K8S中,方便应用程序使用
存储编排:
挂载外部存储系统,无论来自本地存储,公有云,还是网络存储都作为集群资源的一部分使用,极大提高存储使用灵活性
批处理:
提供一次性任务,定时任务,满足批量数据处理和分析的场景

架构图说明:
用户通过kubectl命令,api server接收命令后将对应的数据存储到etcd中,同时利用scheduler将对应的任务发送至相应的node节点,node节点使用kubelet来执行任务(如创建容器等),kube-proxy负责容器网络(k8s创建的容器网络如何通信,如何访问pod),互联网的访问也是通过kube-proxy转发至对应容器中,所有组件都需要和api server进行通信
master节点的组件:
node:执行者
api server:所有服务访问的统一入口,各组件协调者,以resrful api提供接口服务,所有对象资源的增删改查和监听操作都交给APIserver处理后再提交Etcd存储
scheduler:调度器,负责把任务交给api server,api server再负责把任务写入到etcd,选择合适的node进行任务分配
controller:处理集群中常规后台任务,一个资源对应一个控制器,而controller manager就是负责管理这些控制器的
etcd:键值对数据库,能够为整个分布式集群存储一些关键数据,协助分布式集群的正常运转(保存我们整个分布式集群需要持久化的配置信息,一旦集群死亡以后,可以借助这里的数据信息来恢复)
node节点的组件:
kubelet:与容器引擎(docker)进行交互,操作docker创建对应的容器,也就是维持pod的生命周期
kube proxy:负责写入规则至Iptables、IPVS,实现pod与pod之间的访问,包括负载均衡需要借助到kube proxy
docker
K8S主要的一些插件
coredns:可以为集群中的SVC创建一个域名IP的对应关系解析
dashboard:给K8S集群提供一个B/S结构访问体系
ingress contrller :官方只能实现四层代理,这个可以实现七层代理
rfdetaion:提供一个可以跨集群中心多K8S的统一管理功能
prometheus:提供K8S集群的监控能力
elk:提供K8S集群日志统一分析介入平台
K8S核心概念
pod
最小部署单元
一组容器的集合
一个Pod中的容器共享网络命名空间,数据卷也可共享
Pod是短暂的,如果更新或重新发布,那么Pod会销毁
Controllers(部署和管理Pod)
ReplicaSet:确保预期的Pod副本数量
Deployment:无状态应用部署,比如有N1和N2两个节点,如果N1节点挂了,那么N1节点的容l器会漂移到N2,如果能随意的漂移到任何节点,不用考虑存储,标识符等,这样的应用就是无状态应用
StatefuSet:有状态应用部署
DeamonSet:确保所有Node运行同一个Pod
Job:一次性任务
Cronjob:定时任务
Service
防止Pod失联
定义一组Pod的访问策略
Label
标签,附加到某个资源上,用于关联对象、查询和筛选
Namespace
命名空间,将对象逻辑上隔离
浙公网安备 33010602011771号