12 2020 档案
摘要:1.当前分区的信息 2.针对此分区进行扩容(只能针对lvm分区类型的进行扩容) 3.查看 pv和vg信息,针对datavg进行扩容 4.绑定到需要扩容的vg上,datavg是原数据磁盘的VG_Namevgextend datavg /dev/sdb1,可知/dev/sdb1已经绑定到了datavg组
阅读全文
摘要:系统信息 1.新开的机器,除了系统盘还有一个50g硬盘,需要分区格式化。可知/dev/sdb未使用,无挂载点。 2.fdisk /dev/sdb 给sdb分区 新建分区/dev/sdb1 3.分区完,查看一下,fdisk -l ,新的分区/dev/sdb1已存在 (ps1:fdisk工具只是将分区信
阅读全文
摘要:flannel解决了集群中所有pod有唯一的ip地址,是一种overlay-network,node之间的数据包->docker0->flanneld->另一个node的flanneld服务。 flanneld:存在每个node上,为主机在集群中获取一个网段;同时监听etcd,为flannel.1网
阅读全文
摘要:因为k8s集群是 kubeadm部署的,所以kube-proxy等组件是以pod的形式存在,故想查看其pod 描述kube-proxy的配置信息,发现无法查看 分析原因原来是因为namespace不在default,故加上-n kube-system
阅读全文
摘要:k8集群未启动,报错信息如下 The connection to the server 192.168.37.201:6443 was refused - did you specify the right host or port? 首先查看systemctl status kubelet.ser
阅读全文
摘要:1.查看k8集群各个组件的状态,kubectl get cs --all-namespaces 发现scheduler组件和controller-manager组件Unhealthy 2.报错表示连不上本地的10251和10252端口,那么首先查看其监听的端口是否存在 ss -ntlpu |grep
阅读全文
摘要:32c64g内存的服务器,不到半天就告警了,告警信息是cpu和mem负载高。 1.关机重启机器 2.进去查看有哪些高负载进程,top shift+m,查看: 分析: 高cpu的进程属于apiserver,正常k8组件 。 排查过程: (1)docker stats查看那个容器资源使用大 (2)doc
阅读全文
摘要:kubecl describe pod <pod名>,查看pod信息找到该微服务对应的image 1.docker pull <镜像名> 2.然后启动镜像并进入容器: docker run --rm -ti <镜像名> bash 3.执行启动脚本或者命令<pod的执行命令>
阅读全文
摘要:ip a查看下机器的虚拟网卡名字,我的是ens192 -- 1.cd /etc/netplan 2.配置50-cloud-init.yam 3.netplan apply 4.验证 ifconfig -a
阅读全文
摘要:helm是k8的包管理工具charts->helm仓库->release(pod/service)helm install --name {helm包名} {charts本地目录}->将charts安装到helm里面的同时部署到k8上(--name指定helm里面包的名字)--1.批量删除helm
阅读全文
摘要:#!/bin/bash ip=$1 user=$2 password=$3 expect <<EOF set timeout 30 spawn ssh $user@$ip expect { "yes/no" { send "yes\n";exp_continue } "password" { sen
阅读全文
摘要:#!/bin/bash for i in `cat /root/soft/ip.txt` do /usr/bin/expect << EOF spawn /usr/bin/ssh root@$i expect { "UNIX password" { send "Huawei@123\r" } } e
阅读全文
摘要:该脚本实现自动化无需人机交互登陆远程多个ip(密码都一样)执行命令重启vspc服务。 1.创建ip_list_path 2. sh restartVspc.sh <密码> #!/bin/bash set -eux set timeout 30 password=$1 vspc_ip_list_pat
阅读全文

浙公网安备 33010602011771号