Kubernetes 基础指令

主要介绍如何使用Deployment管理Pod生命周期,实现服务不中断的滚动更新,通过服务发现来实现集群内部的服务间访问

并通过ingress-nginx实现外部使用域名访问集群内部的服务,同时介绍基于EFK如何搭建Kubernetes集群的日志收集系统

纯容器模式的问题?

  1. 业务容器数量庞大,哪些容器部署在哪些节点,适用了哪些端口,如何记录,管理,需要登录到每台机器上去管理?
  2. 跨主机通信,多个机器中的容器之间相互调用如何做,iptables规则手动维护?
  3. 跨主机容器间相互调用,配置如何写?写死固定IP+端口?
  4. 如何实现业务高可用?多个容器对外提供服务如何实现负载均衡?
  5. 容器的业务中断了,如何可以感知到,感知到以后,如何自动启动新的容器?
  6. 如何实现滚动升级保证业务的连续性?

容器调度管理平台
Docker Swarm Mesos Google Kubernetes

K8S 架构图

核心组件

  1. ETCD: 分布式高性能键值数据库,存储整个集群的所有元数据
  2. ApiServer : API服务器,集群资源访问控制入口,提供restAPI及安全访问控制
  3. Scheduler: 调度器,负责把业务容器调度到最合适的Node节点
  4. Controller Manager : 控制器管理,确保集群资源按照期望的方式运行
    1. Replication Controller
    2. Node controller
    3. ResourceQuota Controller
    4. Namespace Controller
      ...
  5. Kubelet: 运行在每个节点上的主要的节点代理
    pod 管理: kubelet 定期从所监听的数据源获取节点上pod/container 的期望状态(运行什么容器,运行的副本数量,网络或者存储如何配置等等)
    并调用对应的容器平台接口达到这个状态

容器健康检查: Kubelet 创建了容器之后还要查看容器是否正常运行,如果容器运行出错,就要根据pod设置的重启策略进行处理

kubectl : 命令行接口,用于对Kubernetes集群运行命令
CNI实现:通用网络接口,使用flannel来作为k8s集群的网络插件,实现跨节点通信

工作流程

  1. 用户准备一个资源文件(记录了业务应用的名称,镜像地址等信息),通过调用APIServer执行创建Pod
  2. APIServer收到用户的Pod创建请求,将Pod信息写入到etcd中
  3. 调度器通过list-watch方式,发现有新的Pod数据,但是这个Pod还没有绑定到某一个节点中
  4. 调度器通过调度算法,计算出最适合该Pod运行的节点,并调用APIServer,把信息更新到etcd中
  5. Kubelet同样通过list-watch方式,发现有新的Pod调度到本机的节点了,因此嗲用容器运行时,根据pod的描述信息,拉取镜像,启动容器,同时生成时间信息
  6. 同时,把容器的信息,事件及状态也通过APIServer 写入到etcd中

集群安装

非高可用版

1. 节点规划

部署k8s集群的节点按照用途可以划分为以下两类角色:

  1. master:集群的master节点,集群的初始化节点,基础配置不低于2C4G
  2. slave(node):集群的alave(node)节点,可以多台,基础配置不低于2C4G

为了演示slave节点的添加,会部署一台master + 2台slave 节点规划如下:

2. 组件版本

3. 安装前准备工作

  1. 设置hosts解析
    操作节点:所有节点(k8s-master,k8s-slave)均需执行

核心组件
静态POD的方式:

kubectl -n kube-system get po

systemd服务方式

systemctl status kubelet
posted @ 2021-10-28 16:34  河图s  阅读(54)  评论(0)    收藏  举报