骏马金龙 (新博客:www.junmajinlong.com)

网名骏马金龙,钟情于IT世界里的各种原理和实现机制,强迫症重症患者。爱研究、爱翻译、爱分享。特借此一亩三分田记录自己成长点滴!!!

Ansible专栏文章之八:重学Ansible并进阶,变量、条件、循环、异常处理及其它


回到:Ansible系列文章


各位读者,请您:由于Ansible使用Jinja2模板,它的模板语法{% raw %} {{}} {% endraw %}和{% raw %} {%%} {% endraw %}和博客系统的模板使用的符号一样,在渲染时会产生冲突,尽管我尽我努力地花了大量时间做了调整,但无法保证已经全部都调整。因此,如果各位阅读时发现一些明显的诡异的错误(比如像这样的空的 行内代码),请一定要回复我修正这些渲染错误。

8.回归Ansible并进阶:变量、条件、循环、异常处理及其它

本文将系统性地介绍一些知识点,有些是前面文章提到过的,有些是还没提到但重要的。所以,本文既是总结旧知识,也是拓展新知识,总的来说就是围绕"系统性"这三个字将零散的知识点整理在一起,从而进阶Ansible。

8.1 inventory的进阶

在第三章曾介绍过inventory,这里进行一些知识的补充。

8.1.1 inventory解析

当Ansible开始执行时,首先读取Ansible配置文件来初始化进程自身的运行环境,然后读取inventory文件并解析inventory,解析inventory过程大概包括以下几件事:

在没有看Ansible源码的情况下,没办法深入到解析inventory的细节中去,但可以通过ansible-inventory工具来观察inventory解析后的一部分成果,例如:

$ ansible-inventory -i inventory_lnmp --list
{
    "_meta": {
        "hostvars": {
            "192.168.200.42": { "phpfpm_port": 9000 },
            "192.168.200.43": { "phpfpm_port": 9000 },
            "192.168.200.44": { "phpfpm_port": 9000 }
        }
    },
    "all": {
        "children": [ "dev", "ungrouped" ]
    },
    "dev": {
        "children": [ "mysql", "nginx", "php" ]
    },
    "mysql": {
        "hosts": [ "192.168.200.44" ]
    },
    "nginx": {
        "hosts": [ "192.168.200.42" ]
    },
    "php": {
        "hosts": [ "192.168.200.43" ]
    }
}

8.1.2 inventory变量文件:host_vars和group_vars

在inventory文件中可以直接定义主机变量或主机组变量。

例如:

# 在主机上直接定义变量
[dev]
192.168.200.42 aaa=333 bbb=444 ansible_port=22
192.168.200.43
192.168.200.44

# 在主机组上定义变量
[dev:vars]
xxx=555
yyy=666
ansible_port=22

# 也可以在特殊的主机组ungrouped和all上定义变量
[all]
zzz=777

主机变量除了可以直接定义在inventory文件中,还可以定义在和inventory文件同目录的host_varsgroup_vars目录中,其中host_vars目录中定义主机变量,group_vars目录中定义主机组变量。

例如,默认的inventory文件是/etc/ansible/hosts,那么可以在/etc/ansible目录下创建host_varsgroup_vars目录,并在其中创建一些主机/主机组的变量文件或变量目录:

$ tree /etc/ansible/
/etc/ansible/
├── ansible.cfg
├── hosts
├── group_vars
│   ├── all.yml         # all主机组变量文件
│   ├── nginx           # nginx主机组变量目录,其内所有文件都会被读取
│   │   ├── main.yml    # nginx的主配置变量文件
│   │   └── vhost.yml   # nginx的虚拟主机配置变量文件
│   └── php.yml         # php主机组变量文件
└── host_vars
    └── 192.168.200.42.yml  # 192.168.200.42节点的变量文件

上面的目录结构已经解释完所有内容了,这里总结下:

  1. 定义在group_vars/目录中的变量文件可以是普通文件(比如all.yml、php.yml),也可以是变量目录(比如nginx目录)
  2. 如果是目录,则目录名必须和主机组名相同,目录中的所有文件都会在解析inventory的时候被读取
  3. 如果是普通文件,则文件名可带可不带后缀,不带后缀时,文件名和主机组名相同,带后缀时,前缀和主机组名相同,后缀只允许.yml .yaml .json
  4. host_vars/目录只能为每个节点都单独定义属于它们的变量文件

再来总结一下group_vars/, host_vars/的存放位置:

  1. inventory文件的同目录
  2. playbook文件的同目录

所以,下面和playbook文件lnmp.yml同目录层次的group_vars/也是有效的:

# tree -L 2 -F .
.
├── common.yml
├── group_vars/
│   └── all.yml
├── inventory_lnmp
├── lnmp.yml
├── mysql.yml
├── nginx.yml
├── php.yml
└── roles/
    ├── common/
    ├── mysql/
    ├── nginx/
    └── php/

这里有一个小小疑问?在inventory文件同目录下创建{group,host}_vars/能理解,为什么还要支持在playbook同目录下允许这两个目录呢?主要原因还是为了扩充Role的能力。在第六章中曾说过,在nginx Role中想要跨Role访问php Role中的变量phpfpm_port,其中方法之一也是最友好的方法,就是在playbook文件的同目录下提供{group,host}_vars/,并在其中设置多个Role共享的变量。

换句话说,在playbook文件同层次的{group,host}_vars/下定义主机或主机组变量,可以实现playbook全局变量的功能。任何人都能一眼看到这两个目录,而且只要看到playbook文件同目录下有这两个目录,就知道它们定义了全局变量,是所有Role都能访问到的变量。

如果各位尚不熟悉这两个目录,还请暂停下来自行动手测试一番,这里我不多做实验。后文也有不少地方不会给出测试代码,因为本文要介绍的深入和进阶内容众多,在文字已经描述清楚的情况下,加上实验代码会让文章篇幅变得非常大,万请各位理解。

8.1.3 动态inventory

通常来说,将所有主机信息定义在静态inventory文件中已经能满足绝大多数需求。但是,在云计算"横行"的年代,动态获取inventory的能力也显得尤为重要。

那么何为静态inventory,何为动态inventory?答案非常简单:

  • Ansible在解析inventory的阶段去读取指定的文件来获取inventory信息,是静态inventory
  • Ansible在解析inventory的阶段去执行指定的文件来获取inventory信息,是动态inventory

看到不同的地方了吗?静态是读取,动态是执行。

所以,动态inventory可能是一个脚本,也可能是一个程序,只要能在stdout中输出符合Ansible要求的数据格式,即可作为动态inventory的来源。

要编写动态Inventory,Ansible要求什么呢?它要求这个动态inventory程序能够使用--list选项并输出一种数据格式。至于是何种数据格式,ansible-inventory --list已经告诉我们了,它的输出格式,就是执行动态inventory加上--list选项时应该输出的格式。

以下面这个inventory文件为例:

[nginx]
192.168.200.42   nginx_var="NGINX_VAR"

[php]
192.168.200.43

[mysql]
192.168.200.44

[dev:children]
nginx
php
mysql

[dev:vars]
dev_var="DEV_VAR"

[all:vars]
all_var="ALL_VAR"

使用ansible-inventory --list得到的输出结果:

$ ansible-inventory -i static_inventory --list
{
    "_meta": {
        "hostvars": {
            "192.168.200.42": {
                "all_var": "ALL_VAR",
                "dev_var": "DEV_VAR",
                "first_var": "hello world",
                "nginx_var": "NGINX_VAR"
            },
            "192.168.200.43": {
                "all_var": "ALL_VAR",
                "dev_var": "DEV_VAR",
                "first_var": "hello world"
            },
            "192.168.200.44": {
                "all_var": "ALL_VAR",
                "dev_var": "DEV_VAR",
                "first_var": "hello world"
            }
        }
    },
    "all": {
        "children": [ "dev", "ungrouped" ]
    },
    "dev": {
        "children": [ "mysql", "nginx", "php" ]
    },
    "mysql": {
        "hosts": [ "192.168.200.44" ]
    },
    "nginx": {
        "hosts": [ "192.168.200.42" ]
    },
    "php": {
        "hosts": [ "192.168.200.43" ]
    }
}

所以,只要执行动态inventory程序并带上--list选项能够输出这种数据格式,就是合格的动态inventory程序。

也就是说,如果我写一个Shell脚本能输出这段数据,那这个Shell脚本就是一个合格的inventory程序。

是否so easy?比如,我将上面命令的输出结果保存在/tmp/a.ini文件中:

$ ansible-inventory --list -i static_inventory >/tmp/a.ini

然后写一个Shell脚本my_inventory.sh读取这个文件并输出,内容如下:

#!/bin/bash

case "$1" in
  --list)
      cat /tmp/a.ini
esac

再给Shell脚本执行权限:

$ chmod +x my_inventory.sh

这个Shell脚本就是一个合格的动态inventory脚本。执行试试:

$ ansible -i my_inventory.sh nginx -m ping
192.168.200.42 | SUCCESS => {
    "ansible_facts": {
        "discovered_interpreter_python": "/usr/bin/python"
    },
    "changed": false,
    "ping": "pong"
}

再回头分析一下,编写动态inventory程序的一些基本要求。具体格式如下:

{
  _meta: {
    hostvars: {
    }
  },
  all:{
    children: [GROUP_NAME1,GROUP_NAME2...]
  }
  GROUP_NAME1:{
    hosts: [ HOST1, HOST2, ... ]
  },
  GROUP_NAME2:{
    hosts: [ HOST3, HOST4, ... ]
  }
}

其中子组通过children来定义,组内节点通过hosts来定义。如果要支持主机变量(不是主机组变量,组变量最终还是要整理到主机变量里去的),就在_meta里的hostvars中定义。比如:

hostvars: {
  "192.168.200.42": {
      "all_var": "ALL_VAR",
      "dev_var": "DEV_VAR",
      "first_var": "hello world",
      "nginx_var": "NGINX_VAR"
  },
  "192.168.200.43": {
      "all_var": "ALL_VAR",
      "dev_var": "DEV_VAR",
      "first_var": "hello world"
  }
}

另一个需要注意的是,如果要使用主机变量,还要求动态inventory程序支持--host选项,这个选项用于返回属于该主机的变量。ansible-inventory也告诉我们了。

$ ansible-inventory -i static_inventory --host 192.168.200.42
{
    "all_var": "ALL_VAR",
    "dev_var": "DEV_VAR",
    "first_var": "hello world",
    "nginx_var": "NGINX_VAR"
}

--host选项是非强制性的,而刚才说的--list是强制性的,必须提供。

关于动态inventory就介绍这么多,基本规则已经介绍完了,如果各位有编程基础,可自行尝试一番。

8.1.4 临时添加节点:add_host模块

除了静态和动态inventory可以指定远程被控节点的信息,还有个比较特殊的模块add_host,它可以在任务执行时临时添加主机节点。

add_host用法非常简单,只有两个参数:name和groups,分别定义主机名和所在主机组,其中groups参数可以是一个列表,表示主机可以添加到多个组中。如果还有其它参数,则均被当作变量赋值。

- name: add new host to nginx and apache
  add_host: 
    name: 192.168.200.34
    groups: 
      - nginx
      - apache
    ansible_port: 22
    my_var: "hello world"

add_host模块是一个比较特殊的模块,它在playbook运行时添加主机,有以下几个注意事项:

  1. 新添加的主机在当前play中无效,只在之后的play中有效
  2. 它添加的主机只存在于内存中,Ansible退出之后就消失

关于第一点,仔细一品便知为何,确定哪个主机执行任务是在解析play的时候确定的,每个play中执行任务的主机信息都保存在play_hosts预定义特殊变量中,而所有Ansible的预定义特殊变量都是Ansible内部在维护的,用户没有任何办法临时去改变这些变量(参考官方手册页的第一句话)。换句话说,它们对用户来说是只读变量。所以,用户模块add_host也没法临时去改变当前play的play_hosts值。但不知各位是否记得,Ansible内部会动态维护该变量,比如当某个节点连接失败或执行任务失败时,会将此节点从该变量中移除。

演示一下add_host的用法。例如:

---
# 在play1中添加新主机,并在当前play1中测试新主机是否可用
- name: add hosts in play1
  hosts: nginx
  gather_facts: false
  tasks:
    - name: add new host to nginx and php
      add_host: 
        name: 192.168.200.44
        groups: 
          - nginx
          - php
        ansible_port: 22
        my_var: "hello world"

    - name: ping nginx group in play1
      ping:

# 在play2和play3中分别测试nginx组和php组
- name: test new host in play2
  hosts: nginx
  gather_facts: false
  tasks:
    - name: ping nginx group
      ping: 

- name: test new host in play3
  hosts: php
  gather_facts: false
  tasks:
    - name: ping php group
      ping: 

上面使用ping模块去测试Ansible控制节点和目标主机之间是否可正常建立连接,该模块不需要任何参数。

上面playbook的执行结果中,将会显示play2和play3中都出现新主机192.168.200.44,而在play1中的ping则不会出现192.168.200.44。

8.1.5 group_by运行时临时设置主机组

group_byadd_host功能是类似的,group_by用于临时设置主机组。

group_by有两个参数:

  • key:新设置的分组名
  • parents:(可选参数)新增分组的父组

例如,当前的inventory如下:

[nginx]
192.168.200.42

[php]
192.168.200.43

[mysql]
192.168.200.44

[dev:children]
nginx
php
mysql

其中并没有"CentOS 7"和"CentOS 6"这两个主机组。现在想要在playbook运行的时候去设置这两个主机组。

---
- name: set a new group
  hosts: all
  gather_facts: true
  tasks:
    - name: set new group
      group_by: 
        key: "{{ansible_distribution}}_{{ansible_distribution_major_version}}"
        parents: "CentOS"

- name: use new group
  hosts: CentOS
  gather_facts: false
  tasks:
    - name: ping CentOS
      ping:

上面示例中gather_facts设置为true,因为group_by任务中使用了两个需要它收集来的变量:ansible_distributionansible_distribution_major_version

ansible_distribution变量保存的是系统的发型名称,比如CentOS、RedHat等。ansible_distribution_major_version变量保存的是系统的主版本号,比如CentOS 7.2时返回主版本号7。关于gather_facts,会在稍后的进阶内容中详细介绍。

所以key参数渲染后的值(也即新增组的组名)应当类似于CentOS_6CentOS_7,而且它们都是CentOS的子组。

8.1.6 --limit再次限制目标主机

默认情况下,所有被ansible或ansible-playbook选中的主机都会执行任务,但是可以使用命令行的--limit pattern选项来筛选哪些主机执行任务哪些主机不执行任务。

所以,总结下这里涉及到的解析和筛选节点的过程:

解析inventory --> play的hosts指令 --> limit选项

例如:

---
- name: limit example play
  hosts: dev
  gather_facts: false
  tasks:
    - name: which host we are
      debug:
        var: inventory_hostname

上面hosts指令指定了dev组中的所有节点都执行任务,但下面执行playbook时指定--limit,限制只有nginx主机组中的节点才执行:

$ ansible-playbook -i inventory_lnmp --limit nginx limit.yaml
......
TASK [which host we are] *****************
ok: [192.168.200.42] => {
    "inventory_hostname": "192.168.200.42"
}
......

选项--limit pattern的用法比较灵活,playbook中hosts指令允许的规则都可以在此选项中使用。例如:

--limit "host1,host2"
--limit 'all:!host1'

如果忘记了hosts指令的规则,可回到第四章中复习复习。

8.2 收集目标节点的信息:Facts

为了让Ansible更了解目标节点,可以让它去收集目标节点的信息,比如获取对方的主机名、系统版本、IP地址或其它网卡信息、分区挂载信息等等。在Ansible中,收集到的这些节点信息称为Facts。

有了这些信息,用户可以更好的控制管理节点,比如当IP地址为xxx时就怎样怎样,当系统是CentOS 6时怎样怎样,是CentOS 7时怎样怎样,等等。

有这些信息当然好,但是收集这些信息是有代价的,而且代价很大:因为要收集的信息量很大,所以收集的过程非常慢。所以,如果在playbook中用不上这些信息时,应当禁用收集行为,这也是一个非常有效的效率优化手段。

8.2.1 如何收集Facts信息?

在Ad-hoc模式的ansible命令中,可以使用setup模块或gather_facts模块来收集Facts信息。例如:

$ ansible localhost -m setup
$ ansible localhost -m gather_facts

各位执行一下,就会看到收集的信息非常多(至于如何使用这些信息,稍后解释),而且收集的过程比较慢,会卡顿一段时间。

简单说明一下setup模块和gather_facts模块的区别。setup模块是早就存在的模块,而gather_facts模块是Ansible 2.8才提供的,它是一个二次封装的模块,内部很可能就是调用setup模块,但为何还要提供gather_facts模块呢?也许原因就在于gather_facts模块相比setup模块多的一个功能:并行收集多个节点的信息,而且在探测到要收集多个节点信息时会自动并行。

既然setupgather_facts是模块,那么它们也可以在playbook中当作任务来执行。但是playbook专门为此提供了一个play级别的指令:gather_facts

对于playbook来说,只要用户没有在play级别上明确指定gather_facts: BOOL_FALSE,Ansible就总会在开始执行这个play的pre_tasks之前自动调用setup模块收集所有被选中的节点信息。

也就是说,如果play中有收集Facts的任务,那么这个setup模块的收集操作是play第一个要执行的任务。看执行结果便可知晓:

$ cat a.yml 
---
- name: play1
  hosts: localhost
  tasks: 

$ ansible-playbook a.yml
PLAY [play1] **************
TASK [Gathering Facts] ****
ok: [localhost]

PLAY RECAP

如果要在playbook中禁止收集信息,只需设置gather_facts: false即可,例如:

---
- name: play1
  hosts: ...
  gather_facts: false
  tasks: 
    ...

8.2.2 如何访问Facts信息?

收集到目标节点信息之后,各信息都保存在一个名为ansible_facts的变量中,所以可以直接debug去查看这个变量里保存了什么东西,也即收集了目标节点的哪些信息。

- name: info in ansible_facts
  debug: 
    var: ansible_facts

此外也可以直接使用下面的方式来查看Facts中收集了哪些信息:

$ ansible localhost -m 'setup'

下面是收集到的部分Facts信息:

{
    "ansible_facts": {
        "ansible_all_ipv4_addresses": [
            "192.168.200.26"
        ],
        "ansible_all_ipv6_addresses": [],
        "ansible_apparmor": {
            "status": "disabled"
        },
        "ansible_architecture": "x86_64",
        .................
        "ansible_date_time": {
            .............
        },
        "ansible_default_ipv4": {
            "address": "192.168.200.26",
            "alias": "eth0",
            "broadcast": "192.168.200.255",
            "gateway": "192.168.200.2",
            "interface": "eth0",
            "macaddress": "00:0c:29:50:25:bb",
            "mtu": 1500,
            "netmask": "255.255.255.0",
            "network": "192.168.200.0",
            "type": "ether"
        },
        "ansible_default_ipv6": {},
        "ansible_device_links": {
            "ids": {
                .............
            },
            "labels": {},
            "masters": {},
            "uuids": {
                "sda1": [
                    "367d6a77-033b-4037-bbcb-416705ead095"
                ],
                "sda2": [
                    "b2a70faf-aea4-4d8e-8be8-c7109ac9c8b8"
                ],
                "sda3": [
                    "d505113c-daa6-4c17-8b03-b3551ced2305"
                ]
            }
        },
        "ansible_devices": {        # 目标节点存储设备信息
            "sda": {
                "holders": [],
                "host": "SCSI storage controller: 
                ............
                "model": "VMware Virtual S",
                "partitions": {
                    "sda1": {
                        ................
                        "sectors": "512000",
                        "sectorsize": 512,
                        "size": "250.00 MB",
                        "start": "2048",
                        "uuid": "367d6a77-033b-4037-bbcb-416705ead095"
                    },
                    "sda2": {
                        ................
                    }
                },
                .............
        },
        "ansible_distribution": "CentOS",    # 目标节点操作系统发行版本信息
        "ansible_distribution_file_parsed": true,
        "ansible_distribution_file_path": "/etc/redhat-release",
        "ansible_distribution_file_variety": "RedHat",
        "ansible_distribution_major_version": "7",
        "ansible_distribution_release": "Core",
        "ansible_distribution_version": "7.2",
        "ansible_dns": {
            "nameservers": [
                "192.168.200.2"
            ],
            "search": [
                "localdomain"
            ]
        },
        "ansible_domain": "",
        "ansible_effective_group_id": 0,
        "ansible_effective_user_id": 0,
        "ansible_env": {        # 目标节点可被Ansible获取到的环境变量
            "HISTCONTROL": "ignoredups",
            "HISTSIZE": "1000",
            "HOME": "/root",
            "HOSTNAME": "control_node",
            "LANG": "en_US.UTF-8",
            "LESSOPEN": "||/usr/bin/lesspipe.sh %s",
            "LOGNAME": "root",
            .....................
        },
        "ansible_eth0": {        # 目标节点的网卡信息
            "active": true,
            "device": "eth0",
            ......................
            "ipv4": {
                "address": "192.168.200.26",
                "broadcast": "192.168.200.255",
                "netmask": "255.255.255.0",
                "network": "192.168.200.0"
            },
            "macaddress": "00:0c:29:50:25:bb",
            ...................
        },
        "ansible_fibre_channel_wwn": [],
        "ansible_fips": false,
        "ansible_form_factor": "Other",
        "ansible_fqdn": "control_node",
        "ansible_hostname": "control_node",
        "ansible_hostnqn": "",
        "ansible_interfaces": [
            "lo",
            "eth0"
        ],
        .......................
        "ansible_mounts": [        # 目标节点的分区挂载信息
            {
                "block_available": 3907146,
                "block_size": 4096,
                "block_total": 4664064,
                "block_used": 756918,
                "device": "/dev/sda2",
                "fstype": "xfs",
                "inode_available": 18525156,
                "inode_total": 18666496,
                "inode_used": 141340,
                "mount": "/",
                "options": "rw,relatime,attr2,inode64,noquota",
                "size_available": 16003670016,
                "size_total": 19104006144,
                "uuid": "b2a70faf-aea4-4d8e-8be8-c7109ac9c8b8"
        ....................................

收集到的信息量非常大,但很幸运,只需关注其中常见的几项即可,比如系统版本号、主机名、IP地址、分区信息、挂载信息。

有了这些信息,就可以去访问这些信息。由于它们都存放在ansible_facts变量中,所以通过这个变量去访问即可。但需要注意的是,对于收集到的绝大多数Facts信息,都有两种访问方式:

说的不太严谨,但是下面再解释加演示一下,就知道如何访问它们了。

直接使用debug模块去输出ansible_facts变量,即可知如何访问这些信息。例如:

"ansible_facts": {
        "_facts_gathered": true,
        "all_ipv4_addresses": [ "192.168.200.26" ],
        "all_ipv6_addresses": [],
        "ansible_local": {},
        "architecture": "x86_64",
        .............
}

这也是Ansible真正存储这些信息的方式。于是,要获取目标主机上所有IPv4地址列表的方式为:

- debug: 
    var: ansible_facts.all_ipv4_addresses

要获取eth0和lo网卡的ipv4地址:

- debug:
    var: ansible_facts.eth0.ipv4.address

- debug: 
    var: ansible_facts.lo.ipv4.address

再看在ansible命令行中执行setup模块的输出信息,会发现原本ansible_facts内几乎所有顶级的key现在都以ansible_开头,例如:

"ansible_facts": {
        "ansible_all_ipv4_addresses": ["192.168.200.26"],
        "ansible_all_ipv6_addresses": [],
        ......
}

这是另一种访问Facts信息的方式。例如:

- debug: 
    var: ansible_all_ipv4_addresses

- debug:
    var: ansible_eth0.ipv4.address

- debug: 
    var: ansible_lo.ipv4.address

之所以可以这样直接访问,是因为Ansible将Facts中绝大多数的顶级key都注入到了Ansible自身维护的变量表(即hostvars)中,这样访问它们就方便的多。

至于采用何种方式访问,这无所谓,但是要知道的是,虽然绝大多数Facts信息都单独定义了变量,但并非所有(主要是那些可能产生歧义或冲突的变量)。

另外再多提醒一句,ansible_facts自身也是变量,它也保存在各自节点的hostvars变量中,所以也可以通过hostvars去访问Facts信息。例如:

- debug: 
    var: hostvars['192.168.200.42']['ansible_facts'].lo.ipv4.address

前面介绍了访问IP地址信息的方式,除了获取IP地址,获取目标节点的系统版本号也是非常常见的需求:

# 获取发行版名称,如CentOS
- debug: 
    var: ansible_distribution

# 获取主版本号,如CentOS 7.2将返回7
- debug: 
    var: ansible_distribution_major_version

# 获取完全版本号,如CentOS 7.2将返回7.2
- debug: 
    var: ansible_distribution_version

举个例子,如果目标系统为CentOS 6,就渲染centos6.repo.j2文件,如果目标是CentOS 7系统,就渲染centos7.repo.j2文件:

---
- hosts: nginx
  gather_facts: true
  pre_tasks:
    - name: template and copy centos6 yum repo
      template:
        src: centos6.repo.j2
        dest: /tmp/centos6.repo
      when: ansible_distribution == "CentOS" and ansible_distribution_major_version == "6"

    - name: template and copy centos7 yum repo
      template:
        src: centos7.repo.j2
        dest: /tmp/centos7.repo
      when: ansible_distribution == "CentOS" and ansible_distribution_major_version == "7"

我想各位在这里都会觉得判断多次的方式非常冗余,没办法,Ansible对if...else支持的并不友好,但好在Ansible提供了一种增强的Jinja2 if判断语句,它可以直接实现if...else

例如,改写上面的两个任务,将它们合并为一个if...else

---
- hosts: nginx
  gather_facts: true
  pre_tasks:
    - name: template and copy yum repo
      template:
        src: "{{'centos6.repo.j2' if (ansible_distribution_major_version == 6) else 'centos7.repo.j2'}}"
        dest: /tmp/centos.repo
      when: ansible_distribution == 'CentOS'

关于Jinja2,后面专门有一篇文章会深入介绍。

8.2.3 local Facts

Ansible除了远程收集目标节点的Facts信息,还允许用户在目标节点上自定义该节点的Facts信息,这种方式收集到的Facts称为local Facts。

要自定义local Facts,需要在目标节点的/etc/ansible/facts.d/目录下创建以.fact为后缀的文件,并在该文件中定义Facts变量信息。该文件要求是json、ini格式或能够输出json、ini数据格式的可执行文件,比如shell脚本。

local Facts作为一种特殊的Facts信息,(直接或间接)调用setup模块时会自动将它们收集到ansible_facts变量的ansible_local中,所以访问local_facts就有两种方式:

ansible_facts.ansible_local.xxx
ansible_local.xxx

例如,在192.168.200.42节点上创建一个/etc/ansible/facts.d/a.ini文件,内容如下:

[bb]
ccc=dddd

那么在192.168.200.42这个节点执行任务时,就可以访问到这个local Facts信息。例如:

---
- name: play1
  hosts: nginx
  gather_facts: true
  tasks:
    - debug:
        var: ansible_local.a.bb.ccc
      when: inventory_hostname == "192.168.200.42"
    - debug:
        var: ansible_facts.ansible_local.a.bb.ccc
      when: inventory_hostname == "192.168.200.42"

或许我们会想,既然Local Facts的本质是自定义变量,为什么不直接在Ansible端用host_varsgroup_vars或其它方式定义变量呢?

确实如此,使用Local Facts并不方便,这需要单独去目标节点创建/etc/ansible/facts.d/目录,还要将写好的.fact文件拷贝过去,然后在下一个play中使用(如果在当前play中使用,需要先手动调用setup模块收集信息再使用)。

换句话说,使用Local Facts的一般流程可能是这样的:

---
- name: play1
  hosts: nginx
  gather_facts: false
  tasks: 
    - block:
        - name: mkdir /etc/ansible/facts.d
          file: 
            name: /etc/ansible/facts.d
            state: directory
        - name: copy a.fact
          copy: 
            src: a.fact
            dest: /etc/ansible/facts.d
      when: inventory_hostname == "192.168.200.42"

- name: play2 use local facts
  hosts: nginx
  gather_facts: true
  tasks: 
    - debug:
        var: ansible_local.a.bb.ccc
      when: inventory_hostname == "192.168.200.42"

虽然local Facts不太方便,但由于它支持可执行文件的方式却为用户大开方便之门。用户可以直接写一个可执行文件来动态生成Facts信息而不是预先以静态的方式写好的Facts变量。下面先为各位展示一个示例,然后再来说它为什么能够提供便利。

假设现在已经写好了一个名为a.fact的Shell脚本(注意,可执行文件仍然以".fact"为后缀),内容如下:

#!/bin/bash
echo [bb]
echo ccc=dddd

然后测试:

---
- name: play1
  hosts: nginx
  gather_facts: false
  tasks: 
    - block:
        - name: mkdir /etc/ansible/facts.d
          file: 
            name: /etc/ansible/facts.d
            state: directory
        - name: copy a.fact
          copy: 
            src: a.fact
            dest: /etc/ansible/facts.d
            mode: 755
      when: inventory_hostname == "192.168.200.42"

- name: play2 use local facts
  hosts: nginx
  gather_facts: true
  tasks: 
    - debug:
        var: ansible_local.a.bb.ccc
      when: inventory_hostname == "192.168.200.42"

注意上面copy模块中加的mode: 755,因为可执行文件要有可执行权限。

为什么可执行文件方式的动态local Facts很方便呢?通常情况下,要定义动态变量,都需要手动去写动态inventory或变量插件,而这些定义方式都比编写可执行local Facts文件要复杂的多。

例如,想要收集mysql galera集群中节点的状态,编写如下可执行Facts文件:

#!/bin/bash

echo '[cluster_status]'
mysql -e "SHOW GLOBAL STATUS LIKE 'wsrep_cluster_status'\G" | awk '/Value/{print "status="$2}'

之后便可以在playbook中使用ansible_local.FACT_FILENAME.cluster_status.status来访问对应节点的状态。

虽然有其它方式实现同样的功能,但对于介绍local Facts的应用场景,这是一个非常不错的案例。

最后要说明的是,虽然local Facts有时候确实带来了方便,但按照一般使用流程,初次使用时有可能需要多次收集Facts(要么当前play中手动收集一次,要么下一个play中收集使用),而收集Facts的效率非常低,所以要考虑清楚是否要使用Local Facts。稍后会介绍Facts缓存,来缓解Facts效率低下的问题。

8.2.4 委托Facts

在此之前所介绍的收集Facts信息,都是调用setup收集目标节点的Facts信息。Ansible还支持使用delegate_facts: truedelegate_to指令将setup收集任务委托给其它节点,使得Ansible收集其它节点的Facts信息。

给一个官方手册上的示例解释足以:

---
- hosts: app_servers
  tasks:
    - name: gather facts from db servers
      setup:
      delegate_to: "{{item}}"
      delegate_facts: True
      loop: "{{groups['dbservers']}}"

上面的示例表示,当app_servers主机组中的节点执行任务时,都委托dbservers组中的所有节点去执行setup模块的任务,并让它们将Facts信息返回给Ansible端。于是Ansible端就收集到了dbservers组中节点的Facts信息,而不是app_servers组中节点的Facts信息,比如可以使用hostvars[dbhost1].ansible_default_ipv4.address来查看dbhost1节点的ipv4信息。

注意上面的指令结合,delegate_to表示将setup模块任务委托给谁,此处是委托给dbservers的每一个节点,由于setup任务相比其它任务要特殊一点,它要将一些信息返回给Ansible端进行设置,所以还需使用delegate_facts指令来告诉Ansible。

什么场景下需要委托Facts?一般情况下都不需要,在集群管理时可能会用上。

8.2.5 set_fact模块

经过前面的描述,我想大家都已经体会到了,Facts的各种信息实际上是以变量方式保存的。

其实Ansible也允许用户在任务中通过set_fact模块直接定义Facts,其效果就是定义了一个变量,和register指令的功能类似,只不过register指令是将模块的执行返回值赋值给变量名,而set_fact是手动指定变量的值。

一个示例便能解释清楚:

---
- hosts: localhost
  gather_facts: false
  tasks:
    - name: define some variables
      set_fact: 
        x: xx
        y: yy
    
    - name: use variable
      debug: 
        msg: "x: {{x}}, y: {{y}}"

set_fact经常用于临时设置变量,也非常方便,比如可以在将shell执行结果通过register注册变量之后,立即使用set_fact将命令的标准输出定义成变量。如下:

---
- hosts: localhost
  gather_facts: false
  tasks:
    - shell: |
        echo hahahaha
      register: echo_res
    - set_fact: echo_var={{echo_res.stdout}}

    - name: use variable
      debug:
        var: echo_var

8.2.6 Facts缓存

前面多次提到,收集Facts是一个非常低效的操作,别说用Ansible去管理上百上千台服务器,就算是几十台,如果都要先去收集Facts然后再执行任务,也将是一个噩梦。

好在,Ansible支持Facts缓存,通过设置Ansible配置文件,然后就可以在任何时间点通过一个独立的收集任务去收集,并将收集的Facts缓存下来,以后使用Facts变量时就不用再显式地低效收集。

配置Ansible开启Facts缓存的方式非常简单,修改Ansible配置文件(默认是/etc/ansible/ansible.cfg或其它位置)。目前Ansible支持以下几种缓存模式:

  • (1).redis:缓存在redis服务中,直到目前(Ansible 2.9)为止,Ansible还不支持指定连接redis的端口、密码等
  • (2).memcached:缓存在memcache文件中
  • (3).mongodb:缓存在mongodb文件中
  • (4).jsonfile:缓存在本地的json文件中
  • (5).yaml:缓存在本地的yaml文件中
  • (6).pickle:缓存在本地的pickle序列化文件中

配置方式,可参考如下配置项:

# jsonfile缓存模式
gathering = smart或explicit或implicit
fact_caching = jsonfile
fact_caching_connection = DIRNAME
fact_caching_timeout=TIMEOUT

# redis缓存模式
gathering = smart或explicit或implicit
fact_caching = redis
fact_caching_timeout=TIMEOUT
fact_caching_connection = localhost:6379:0

# mongodb缓存模式
fact_caching = mongodb
fact_caching_timeout = 60
fact_caching_connection = mongodb://localhost:32770/ansible_cache

简单说明下涉及到的配置指令的含义:

  1. gathering:控制Ansible是否自动收集Facts,它有三种值:
  • (1).implicit:这是默认值,表示执行play时会自动收集Facts,除非显式指定gather_facts: false禁止收集
  • (2).explicit:不自动收集Facts,除非显式指定gather_facts: true开启收集
  • (3).smart:自动收集Facts,但如果已存在(缓存)则不重复收集
  1. fact_caching_connection:指定本地目录用于存放Facts的缓存文件,如果目录不存在则Ansible会尝试创建
  2. fact_caching_timeout:缓存的有效时长

根据上面的描述,想要使用缓存,需要将gathering设置为smart,或explicit,或implicit时gather_facts: false禁用自动收集,总的来说就是不要让它再次收集。

以jsonfile的缓存模式举个简单的示例,设置如下:

gathering = explicit
fact_caching = jsonfile
fact_caching_connection = /etc/ansible/facts_cache
fact_caching_timeout=86400

使用的inventory文件名为hosts,其内容如下:

[nginx]
192.168.200.42
[mysql]
192.168.200.44

通过Ad-hoc的方式调用setup模块或gather_facts模块手动收集一次Facts:

$ ansible -i hosts all -m setup

它会将收集到的内容缓存在/etc/ansible/facts_cache目录下:

$ ls -l /etc/ansible/facts_cache/
-rw-r--r-- 1 root root 19032 Jan 14 12:00 192.168.200.42
-rw-r--r-- 1 root root 18940 Jan 14 12:00 192.168.200.44

可见,各目标节点的Facts缓存在以它主机名命名的文件中。

既然缓存下来了,之后便可以直接去引用这些缓存下来的Facts信息,甚至访问不在该play中的节点的Facts信息。例如,playbook内容如下:

---
- hosts: nginx
  gather_facts: false
  tasks:
    - name: use variable
      debug:
        var: ansible_default_ipv4.address

    - debug: 
        var: hostvars['192.168.200.44'].ansible_default_ipv4.address

这里说明一下,只要进行了收集任务(无论是自动收集还是手动收集),都会创建或更新Facts缓存。而收集操作很耗时间,所以比较推荐的方式是单独使用Ad-hoc的方式调用setupgather_facts模块来收集,并且尽可能放在比较空闲的时间段进行收集操作。

8.3 Ansible变量的进阶

前面的文章中我曾多次提到过Ansible的变量很复杂,是一个难点,也是一个重点。确实非常难,因为Ansible的变量来源太多了,据官方手册https://docs.ansible.com/ansible/latest/user_guide/playbooks_variables.html#variable-precedence-where-should-i-put-a-variable对变量优先级的介绍,提到了有47处变量来源,所以这个知识点是非常零散的。我以前写博客翻阅手册时看到这个说明,整个人瞬间都不好了,不知道该怎么动笔。所以这里建议各位,不要全学,不要问用什么变量、为什么用这种变量,这是在给自己找罪。

其实,在前面的一些文章中介绍过不少变量类型,比如inventory变量、预定义特殊变量、vars_files变量,等等,这些变量类型已经扮演了Ansible的主要角色,足够一般情况下使用Ansible。而且,当我们需要使用到变量时,一般都能够在编写playbook时就确定变量类型,并在必要的时候(比如调试、重构Role)根据需求调整变量的定义位置。

在本文,将对变量做个总结,并将它们系统性地完善完善,以便大家能够更好地掌握Ansible变量。

8.3.1 访问列表、字典变量的两种方式

Ansible中经常需要访问列表和字典类型的变量。例如下面的字典类型:

p: 
  a: aa
  b: bb

files:
  - /tmp/a.txt
  - /tmp/b.txt

对于这类变量的访问,Ansible中提供了两种方式:

  • (1).按照Python字典或列表的索引下标方式访问。例如p["a"]files[0]
  • (2).按照对象访问方式。例如p.bfiles.0

用一个简单的示例来演示一下这两种访问变量的方式:

---
- hosts: localhost
  gather_facts: false
  tasks:
    - debug:
        msg: "name: {{p.name}}, age: {{p['age']}}"
      vars:
        p: 
          name: "junmajinlong"
          age: 18

通常情况下,这两种访问方式都不会有问题。但对于访问字典来说,如果字典的key名称和Python的字典方法名冲突了,就会有问题。比如:

p:
  keys: "junmajinlong"
  age: 18

因为Python的字典类型有一个称为keys的方法名,如果用p.keys来访问这个字典变量,得到的是Python的keys方法还是keys的值呢?答案是keys方法而不是keys属性的值。原因如下:

  • 使用X.Y时,先搜索Python字典对象的属性名或方法名,搜索不到时再搜索Jinja2变量
  • 使用X["Y"]时,先搜索Jinja2变量,搜索失败时再搜索Python字典对象的属性名或方法名

所以,使用X.Y方式时需要小心一些,使用X["Y"]更保险,但需要多敲几个按键。当然,使用哪种方式都无所谓,这都不是事,即使出错了也知道如何去调整。

8.3.2 --extra-vars选项定义额外变量

ansible-playbook命令的-e选项或--extra-vars选项可定义变量或引入变量文件。

# 定义单个变量
$ ansible-playbook -e 'var1="value1"' xxx.yml

# 定义多个变量
$ ansible-playbook -e 'var1="value1" var2="value2"' xxx.yml

# 引入单个变量文件
$ ansible-playbook -e '@varfile1.yml' xxx.yml

# 引入多个变量文件
$ ansible-playbook -e '@varfile1.yml' -e '@varfile2.yml' xxx.yml

因为是通过选项的方式来定义变量的,所以它所定义的变量是全局的,对所有play都有效。

通常来说不建议使用-e选项,因为这对用户来说是不透明也不友好的,要求用户记住要定义哪些变量。

8.3.3 inventory变量

在解析inventory时,会收集inventory相关的变量。

inventory变量主要分为两种:

  • (1).连接目标节点时的行为控制变量,即决定如何连接目标节点
  • (2).主机变量

行为控制变量(如ansible_portansible_host等)用于指定Ansible端连接目标节点时的连接参数,可设置的参数项比较多,可参见官方手册:https://docs.ansible.com/ansible/latest/user_guide/intro_inventory.html#connecting-to-hosts-behavioral-inventory-parameters

inventory的主机变量有多种定义途径,例如直接在inventory文件中为某个主机定义变量,也可以在主机组中定义变量,主机组变量会在解析inventory的时候整理到主机变量中去。此外还可以将变量定义在host_vars/group_vars/目录内,详细用法参见前文。

需要说明或提醒几点:

  • (1).不要忘记all主机组的存在,为all主机组设置变量表示为所有节点设置主机变量
  • (2).主机变量是绑定在主机上的,和play、task没有关系,所以这些变量都是全局变量,甚至节点A执行任务时还能访问节点B的主机变量
  • (3).所有的主机变量都可以通过ansible-inventory工具列出来
  • (4).所有变量,包括主机变量,都保存在Ansible的变量表hostvars中,通过这个全局变量表,任何一个节点都能访问其它节点的变量

8.3.4 Role变量

Role中主要有两个地方定义变量:

  • (1).roles/ROLE_NAME/defaults/main.yml
  • (2).roles/ROLE_NAME/vars/main.yml

需要提醒大家,Role defaults变量的优先级非常低,几乎可以被其它任何同名变量覆盖。

Role变量都是play级别的变量。换句话说,如果play中执行了Role之后还有tasks指令的任务,则tasks的任务中可以引用Role中的变量。

例如:

---
- hosts: localhost
  gather_facts: false
  roles: 
    - role: test_role
  tasks: 
    - debug: 
        var: var_from_role

8.3.5 play变量

play级别可以通过varsvars_filesvars_prompt指令来定义变量。因为它们属于play级别,所以只在当前play有效。另一方面,每个play都有选中的目标节点,所以所有选中的目标节点都能访问这些play变量。

关于varsvars_files前面的文章中已经解释过,所以不再解释,这里简单介绍下vars_prompt指令的用法。

vars_prompt指令用于交互式提示用户输入数据,并将输入内容赋值给指定的变量。

例如:

---
- hosts: localhost
  gather_facts: false
  vars_prompt: 
    - name: username
      prompt: "Your Name?"
      private: no
      default: "root"
      
    - name: passwd
      prompt: "Your Password"
  tasks: 
    - debug: 
        msg: "username: {{username}}, password: {{passwd}}"

上面定义了两个变量usernamepasswd,都会提示用户输入对应的值。private: no表示不要隐藏用户输入的字符(默认会隐藏),default表示指定变量的默认值。

vars_prompt主要用于保护隐私数据,比如密码,有时候也用于交互式选择,比如让用户自己输入要安装的软件包名称。它的用法不难,更详细的用法参见官方手册:https://docs.ansible.com/ansible/latest/user_guide/playbooks_prompts.html

8.3.6 task变量

task变量有多种定义方式,稍作总结:

  • (1).register指令
  • (2).set_fact指令
  • (3).vars指令
  • (4).include_vars指令

它们的用法都介绍过,下面给个示例看一眼即可:

---
- hosts: localhost
  gather_facts: false
  tasks: 
    # var.yml变量文件中定义了变量a
    - include_vars: 
        file: var.yml

    - shell: echo junmajinlong
      register: res
    - set_fact: name="{{res.stdout}}"

    - debug:
        msg: "a: {{a}}, name: {{name}}, age: {{age}}"
      vars:
        age: 18
        gender: male

8.3.7 block变量

block作为一个特殊的层次级别,它也支持定义变量,只不过这个block层次的变量只对当前block内的所有任务有效。

例如:

---
- hosts: localhost
  gather_facts: false
  tasks: 
    - block:
        - debug:
           var: name
      vars: 
        name: "junmajinlong"

8.3.8 Facts信息变量

Facts信息也算是变量,这个变量比较特殊:看上去它是在play开始执行后才获取的,但它却是归属于每个主机的;它是一个任务,但它又在play级别解析且在所有任务中都有效......

关于Facts,我想前文介绍的已经非常详细,所以不再多作解释。

8.3.9 预定义特殊变量

Ansible作为一个功能复杂的程序,它自身也维护了一些暴露给用户的预定义变量,这些变量都是特殊变量(官方也称为魔法变量),它们都是能直接访问的变量,且对用户只读。其实在之前的文章中已经接触了好几个这类变量,比如hostvars

这些变量的数量不少,大概30-40个左右,其中有一些是等价的变量(和Ansible版本的迭代有关),这些变量当然不用全都去学习,但是了解一些常用变量的功能还是必要的(其实只要知道常用的几个即可,在写playbook的时候如果想要用关于play、role、task、inventory、host等Ansible内部信息,你肯定会想到去查找预定义变量)。

下面我列出常见预定义变量的含义,完整的预定义特殊变量说明参考官方手册:https://docs.ansible.com/ansible/latest/reference_appendices/special_variables.html#special-variables。这里我只解释变量含义,大多数变量都见名知意,且一些变量在前面文章中详细介绍过,如仍有疑惑,可用debug模块调试hostvars来观察变量的值或网上搜索寻求答案。

- ansible_forks
表示最大的进程数。这也暗含了多少个节点作为一批。(如果忘记了一批是什么意思,可回介绍playbook的那一章末尾复习)

- hostvars
保存了inventory中所有主机和主机变量

- inventory_hostname
当前执行任务的节点在inventory中的主机名

- inventory_hostname_short
当前执行任务的节点在inventory中的短主机名

- inventory_dir
inventory文件所在的目录

- inventory_file
inventory文件名

- group_names
当前正在执行任务的节点所在主机组列表,注意是一个列表,因为一个节点可能存在于多个主机组

- groups
inventory中所有的主机组以及各组内的主机列表

- ansible_play_batch
当前play中可执行任务的主机列表。Ansible动态维护该变量,默认情况下执行任务失败或连接失败的节点会从此变量中移除

- ansible_play_hosts
等价于ansible_play_batch

- play_hosts
已废弃,等价于ansible_play_batch

- playbook_dir
playbook所在目录,该playbook是ansible-playbook命令所执行的playbook,而不是import_playbook导入的playbook

- ansible_play_name
当前正在执行的play的name。Ansible 2.8才添加的变量

- ansible_play_hosts_all
当前play所选中的所有节点,等价于ansible_play_batch + 失败的节点

- ansible_play_role_names
当前play中包含的Role列表。注意,因依赖关系而隐式导入的Role不在列表内

- role_names
已废弃,等价于ansible_play_role_names

- ansible_role_names
当前play中包含的Role列表,包括因依赖关系而隐式导入的Role

- role_name
当前正在执行的Role的名称

- role_path
当前正在执行的Role的路径

ansible_run_tags
所有--tags筛选出来的tag列表

ansible_skip_tags
所有--skip_tags筛选出来的tag列表

ansible_version
Ansible版本号信息,是一个字典,字典的key: full, major, minor, revision以及string

- omit
这是一个非常特殊的变量,可直接忽略一个模块的参数。通常结合Filter和`default(omit)`使用。用法见下文

下面介绍下omit变量的用法。

- name: touch files with an optional mode
  file:
    dest: "{{ item.path }}"
    state: touch
    mode: "{{ item.mode | default(omit) }}"
  loop:
    - path: /tmp/foo
    - path: /tmp/bar
    - path: /tmp/baz
      mode: "0444"

上面的示例通过迭代的方式创建多个文件,其中迭代创建前两个文件时,将以umask值来设置所创建文件的权限,而第三个文件因为存在mode,所以将权限设置为0444。{{ item.mode | default(omit) }}的作用是:如果item.mode不存在,则忽略file模块的mode参数,否则mode参数则生效。

8.3.10 变量作用域

前面介绍了几种主要的变量类型,除了需要知道它们的用法之外,还需要搞清楚这些变量的生效范围,也即它们的作用域。其实在前面介绍各种变量的时候都提到过它们各自的生效范围,这里做个总结。

Ansible中变量主要有五种作用域概念:

  • (1).全局作用域:Ansible配置文件、环境变量、命令行选项-e,--extra-vars设置的变量都是全局变量
  • (2).Play作用域:整个Play中都有效的变量,vars_filesvars_prompt、play级别的vars以及Role的变量,它们都是play级别的变量
  • (3).主机变量:绑定在各主机上的变量,各种方式定义的inventory变量、Facts信息变量(这个就划分在这吧)、set_factregisterinclude_vars都是主机变量
  • (4).任务变量:只在当前任务中生效的变量,task级别的vars定义的变量属于任务变量
  • (5).block变量:只在当前block内生效,block级别的vars定义的变量属于block变量

最后还有预定义特殊变量未分类,这些变量由Ansible自身内部维护,有些是全局变量,有些是play变量,有些是主机变量,所以不方便对它们分类。

8.4 YAML纯文本裸字符串

由于Ansible采用Jinja2模板引擎渲染字符串,在需要渲染的时候,如果发现字符串中包含了Jinja2的特殊字符,就会认为这是一个需要渲染的内容。比如{{xxx}}是Jinja2的表达式语法(比如引用变量),{{}}都是Jinja2的特殊符号。

如果想要在定义变量时、指定name属性值时或其它会渲染的地方使用这些Jinja2的特殊符号,需要加上!unsafe标记。这个标记会禁止渲染,保留原始的特殊符号。

多说无益,示例之:

---
- hosts: localhost
  gather_facts: false
  tasks:
    - name: !unsafe "hello {{ world"   # 去掉!unsafe标记会报错
      debug: var=myvar
      vars: 
        myvar: !unsafe "hello }} world"  # 去掉!unsafe标记会报错

8.5 handler的进阶

之前的文章已经详细介绍过handler,这里再对其做一点补充:如何触发多个handler任务。

另外,还有一个关于"如何解决因某任务失败而导致handler未执行"的问题,该内容将在后文介绍异常和错误处理的时候再做补充。

如何触发执行多个handler任务?比如,将重启nginx的handler分为多步:

  1. 检查nginx语法
  2. 检查nginx进程是否已存在
  3. 如果nginx进程已存在,则reload
  4. 如果nginx进程还不存在,则start

第一种实现方式:在handler任务中使用notify,将多个任务链在一起。

# check config file syntax
- name: "reload nginx step 1"
  shell: |
    nginx -c /etc/nginx/nginx.conf -t
  changed_when: true
  notify: "reload nginx step 2"

# check nginx process is started or not
- name: "reload nginx step 2"
  shell: |
    killall -0 nginx &>/dev/null
  notify: 
    - "start nginx"
    - "reload nginx"
  changed_when: true
  register: step2
  failed_when: false

# start nginx when nginx process is not running
- name: "start nginx"
  shell: |
    nginx -c /etc/nginx/nginx.conf
  when: step2.rc == 1

# reload nginx when nginx is running
- name: "reload nginx"
  shell: |
    nginx -s reload -c /etc/nginx/nginx.conf
  when: step2.rc == 0

第二种方式,在触发handler处定义handler列表:

- template: 
    src: nginx.conf.j2
    dest: /etc/nginx/nginx.conf
  notify: 
    - check nginx syntax
    - check nginx process
    - start nginx
    - reload nginx

注意,handler任务的执行顺序不是根据notify顺序决定的,而是根据handler任务的定义顺序。

然后定义如下handlers:

- name: "check nginx syntax"
  shell: |
    nginx -c /etc/nginx/nginx.conf -t
  changed_when: true

- name: "check nginx process"
  shell: |
    killall -0 nginx &>/dev/null
  changed_when: true
  register: step2
  failed_when: false

- name: "start nginx"
  shell: |
    nginx -c /etc/nginx/nginx.conf
  when: step2.rc == 1

- name: "reload nginx"
  shell: |
    nginx -s reload -c /etc/nginx/nginx.conf
  when: step2.rc == 0

第三种方式,在每个handler任务中使用Ansible 2.2提供的listen指令,它可以监听notify发送的信息:

- template: 
    src: nginx.conf.j2
    dest: /etc/nginx/nginx.conf
  notify: start or reload nginx

然后定义如下handlers,每个handler都定义listen: start or reload nginx,只要notify发送start or reload nginx,则这些任务都会被触发。

- name: "check nginx syntax"
  shell: |
    nginx -c /etc/nginx/nginx.conf -t
  changed_when: true
  listen: start or reload nginx

- name: "check nginx process"
  shell: |
    killall -0 nginx &>/dev/null
  changed_when: true
  register: step2
  failed_when: false
  listen: start or reload nginx

- name: "start nginx"
  shell: |
    nginx -c /etc/nginx/nginx.conf
  when: step2.rc == 1
  listen: start or reload nginx

- name: "reload nginx"
  shell: |
    nginx -s reload -c /etc/nginx/nginx.conf
  when: step2.rc == 0
  listen: start or reload nginx

8.6 when条件判断

Ansible提供的条件判断只有when指令,它的语法很简单,但因为可以写Jinja2条件判断表达式,所以判断方式比较灵活。因为目前还没介绍Jinja2的表达式,所以本文暂时不展开when条件表达式怎么写相关的内容,而是介绍和when指令用法相关的几个小技巧。

8.6.1 同时满足多个条件

按照一般编程语言的语法,结合多个条件判断语句时要么使用逻辑与符号(通常是and&&),要么使用逻辑或符号(通常是or||)。Ansible当然也支持这种结合方式,例如:

when: item > 3 and item < 10

但如果是想要同时满足多个条件,则可以将这些条件以列表的方式提供。例如:

---
- hosts: localhost
  gather_facts: false
  tasks: 
    - debug: 
        var: item
      when:
        - item > 3
        - item < 5
      loop: [1,2,3,4,5,6]

8.6.2 按条件导入文件

因为Ansible是一个服务器管理、配置的任务编排工具,所以它可能需要管理多种环境、多种系统版本、多种应用程序版本等等。而往往不同版本的环境就意味着要为各个版本都提供对应的配置和管理。另一方面,如果我们写的Ansible Role想要分享给他人使用,那么我们的playbook中就需要进行多种版本的判断。

例如对于Apache httpd服务的软件包,在Redhat系列的系统中名称为httpd,在Debian系列的系统中名称为apache2。再例如,ubuntu上软件的开发包一般名为xxx-dev,而在Redhat系列的系统中一般名为xxx-devel,同样的差异还体现在库文件包的名称上。

对于这种因环境不同而配置不同任务的场景,通常是为不同环境编写不同任务文件或不同变量文件,然后根据when的环境判断加载不同环境的文件。

以Redhat和Debian系列安装Apache httpd软件包的任务文件为例。

---
- hosts: localhost
  gather_facts: yes
  tasks:
    - include_tasks: RedHat.yml
      when: ansible_os_family == "RedHat"
    - include_tasks: Debian.yml
      when: ansible_os_family == "Debian"

这样编写任务虽然达到了目标,也直观易懂,但是出现了冗余代码,有没有其它更简洁的方法呢?(我们有必要为了追求其它更好的实现方法而做修改,但实现功能才是最关键的,只要能实现功能,管它有没有冗余呢)

下面给出一种Ansible中非常常见的用法:直接在文件名上使用环境相关的变量名

---
- hosts: localhost
  gather_facts: yes
  tasks:
    - include_tasks: "{{ansible_os_family}}.yml"

这里提个问题让大家思考:上面的include_tasks能换成import_tasks吗?为什么?如果不知道为什么,请复习。

除了为不同环境定义不同任务,可能还需要为不同环境定义不同变量。这也简单,直接将环境相关的变量名作为变量文件的名称即可。

例如:

---
- hosts: localhost
  gather_facts: yes
  vars_files:
    - '{{ansible_os_family}}.yml'
  tasks:
    - debug:
        var: myvar

8.6.3 when和循环

当when指令和循环指令一起使用时,when的判断操作在每轮循环内执行。详细内容下文中描述。

8.7 循环迭代的进阶

相对来说,with_xxx语法要更直观、更简洁他更简单一些,而loop语法在结合了一些Filter函数后,也能实现绝大多数的with_xxx功能。

至于使用loop还是with_xxx循环语法,可随意。本文会以with_xxx语法来介绍一部分循环迭代的用法(因为lookup插件太多了,介绍常见的足以),然后给出它们等价的loop语法。

8.7.1 with_list

最简单的循环就是迭代一个列表。

例如,在Ansible本地端的/tmp目录下创建两个文件:

---
- hosts: localhost
  gather_facts: false
  tasks: 
    - file:
        name: "/tmp/{{item}}"
        state: touch
      with_list: 
        - "filename1"
        - "filename2"

与上面with_list等价的loop语法:

- file:
    name: "/tmp/{{item}}"
    state: touch
  loop: 
    - "filename1"
    - "filename2"

8.7.2 with_items和with_flattened

with_list用于迭代简单列表,有时候列表中会嵌套列表。

例如:

a: [b, c, [d, e], f]

aa:
  - bb
  - cc  
  - 
     - dd
     - ee
  - ff

如果想要迭代这种嵌套列表结构,使用with_items。注意,它也可以迭代普通非嵌套列表,所以它可以完全替代with_list

a: [b,c,[d,e],f]为例,with_items迭代该结构后,会先将第一层的嵌套列表压平(flatten),得到[b,c,d,e,f],然后再迭代该列表。

例如:

---
- hosts: localhost
  gather_facts: false
  vars: 
    a: [b, c, [d, e], f]
  tasks: 
    - debug: 
        var: item
      with_items: "{{a}}"

注意,with_items只压平嵌套列表的第一层,不会递归压平第二层、第三层...

例如:

[b, c, [d, e], f, [g, h, [i, j], k]]
# with_items压平后得到:
[b, c, d, e, f, g, h, [i, j], k]

with_items等价的loop指令的写法为:

loop: "{{ nested_list | flatten(levels=1) }}"

由上面的写法可推测,筛选器函数flatten()默认会递归压平所有嵌套列表,如果只是压平第一层,需指定参数levels=1

此外,还存在lookup插件:items、flattened,前者只压第一层,后者递归压平所有嵌套层次。例如:

---
- hosts: localhost
  gather_facts: false
  vars: 
    a: [b, c, [d, e], f, [g,h,[i,j], k]]
  tasks: 
    - debug: 
        var: item
      with_flattened: "{{a}}"

8.7.3 with_indexed_items

如果迭代列表时,还想要获取每个元素的索引位,则可以使用with_indexed_items

它使用的indexed_items插件会修改原列表,为每个元素加上数值索引。看示例便知:

---
- hosts: localhost
  gather_facts: false
  vars: 
    a: [b, [c, d], e]
  tasks: 
    - debug:
        var: lookup('indexed_items', a)

执行,得到的输出结果为:

[
  [ 0, "b" ],
  [ 1, [ "c", "d" ] ],
  [ 2, "e" ]
]

很明显,第一个元素"b"的索引为0,第三个元素"e"的索引为2。

那么使用with_indexed_items迭代的时候,就可以通过item.0来获取每个元素所在的索引位,item.1来获取每个元素的值。

但是一定要注意,with_indexed_itemsindexed_items lookup插件的效果并不同,with_indexed_items会先压平(只压一个层次)嵌套列表,然后为压平后的列表加上索引值。

例如:

---
- hosts: localhost
  gather_facts: false
  vars: 
    a: [b, [c, d], e]
  tasks: 
    - debug:
        msg: "index: {{item.0}}, value: {{item.1}}"
      with_indexed_items: "{{a}}"

执行结果:

ok: [localhost] => (item=[0, 'b']) => {
    "msg": "index: 0, value: b"
}
ok: [localhost] => (item=[1, 'c']) => {
    "msg": "index: 1, value: c"
}
ok: [localhost] => (item=[2, 'd']) => {
    "msg": "index: 2, value: d"
}
ok: [localhost] => (item=[3, 'e']) => {
    "msg": "index: 3, value: e"
}

with_indexed_items等价的loop写法为:

debug:
  msg: "{{ index }} - {{ item }}"
loop: "{{ items|flatten(levels=1) }}"
loop_control:
  index_var: index

先压平再指定索引变量名为index。loop_control用于控制循环时的一些行为,后文会详细解释其用法。

8.7.4 with_dict

with_dict用于迭代一个字典结构,迭代时可以使用item.key表示每个字典元素的key,item.value表示每个字典元素的value。

例如:

---
# test.yml
- hosts: localhost
  gather_facts: false
  vars: 
    users:
      junmajinlong_key:
        name: junmajinlong
        age: 18
      fairy_key:
        name: fairy
        age: 22
  tasks:
    - debug:
        msg: "who: {{item.key}} && 
              name: {{item.value.name}} && 
              age: {{item.value.age}}"
      with_dict: "{{users}}"

执行该playbook,输出结果的一部分如下所示:

$ ansible-playbook test.yml
TASK [debug] ********************
{
  "msg": "who: junmajinlong_key && name: junmajinlong && age: 18"
}
{
  "msg": "who: fairy_key && name: fairy && age: 22"
}

with_dict等价的loop指令有两种写法:

loop: "{{lookup('dict', users)}}"
loop: "{{users | dict2items}}"

这两种写法应该都不难理解,它们的效果是完全一样的,所以只解释第一种写法。

with_dict内部使用的是lookup的dict插件,该插件的作用是将一个dict转换成一个包含了keyvalue的列表结构(请看官方手册对dict插件的语法介绍https://docs.ansible.com/ansible/latest/plugins/lookup/dict.html)。

例如,对于之前的users字典来说,经过lookup('dict',users)users|dict2items操作之后,可以得到:

users:
  - key: junmajinlong_key
    value: 
      name: "junmajinlong"
      age: 18

  - key: fairy_key
    value: 
      name: "fairy",
      age: 22

正是因为转换后得到的列表的每个元素都包含了keyvalue这两个特殊的字典key,才使得迭代时可以使用item.keyitem.value

另外,在Ansible 2.8中可以自定义dict2items筛选器函数得到的key和value的名称。例如:

loop: "{{users | dict2items(key_name='k',value_name='v')}}"

它将得到如下列表结构:

users:
  - k: junmajinlong_key
    v: 
      name: "junmajinlong"
      age: 18

  - k: fairy_key
    v: 
      name: "fairy",
      age: 22

所以,引用的时候使用item.kitem.v即可。

8.7.5 with_together

with_together用于结合两个(或多个)列表并迭代,它使用together lookup插件。如果各位熟悉一门动态编程语言(比如Python),则很容易理解,together插件的功能就是zip()函数的功能。不了解也没关系,一句话就能解释清楚。

假设有两个列表['a', 'b']['aa', 'bb'],执行:

lookup('together', ['a','b'], ['aa','bb'] )

将得到一个新的列表[['a', 'aa'], ['b', 'bb']]

它的作用已经很明确了,就是两个列表之间的元素根据索引位一一对应并组合起来。

如果两个列表长度不同呢?比如:

lookup('together', ["a", "b", "c"], ["aa", "bb"]

将得到[["a", "aa"], ["b", "bb"], ["c", null]]

再来理解with_together的用法就很容易了。迭代变量item表示每个子列表,item.0表示每个子列表的第一个元素,item.1表示每个子列表的第二个元素,item.N表示每个子列表的第N+1个元素。

例如:

---
- hosts: localhost
  gather_facts: false
  tasks: 
    - debug:
        msg: "{{item.0}}, {{item.1}}, {{item.2}}"
      with_together: 
        - [a, b, c]
        - [aa, bb]
        - [aaa, bbb, ccc]

得到的结果:

ok: [localhost] => (item=['a', 'aa', 'aaa']) => {
    "msg": "a, aa, aaa"
}
ok: [localhost] => (item=['b', 'bb', 'bbb']) => {
    "msg": "b, bb, bbb"
}
ok: [localhost] => (item=['c', None, 'ccc']) => {
    "msg": "c, , ccc"
}

with_together等价的loop写法为:

# 以最长的列表为基准,短列表缺少的元素默认以None填充
# 输出"a, aa, aaa", "b, bb, bbb", "c, , ccc"
- debug:
    msg: "{{item.0}}, {{item.1}}, {{item.2}}"
  loop: "{{ ['a','b','c'] | zip_longest(['aa','bb'],['aaa','bbb','ccc']) | list }}"

# 以最长的列表为基准,短列表缺少的元素以指定的值填充
# 输出"a, aa, aaa", "b, bb, bbb", "c, X, ccc"
- debug:
    msg: "{{item.0}}, {{item.1}}, {{item.2}}"
  loop: "{{ ['a','b','c'] | zip_longest(['aa','bb'],['aaa','bbb','ccc'],fillvalue='X') | list }}"

# 以最短的列表为基准,长列表多出的元素直接切断
# 输出"a, aa, aaa", "b, bb, bbb"
- debug:
    msg: "{{item.0}}, {{item.1}}, {{item.2}}"
  loop: "{{ ['a','b','c'] | zip(['aa','bb'],['aaa','bbb','ccc']) | list }}"

8.7.6 with_sequence

Shell命令行下有一个很好用的命令seq,可用于生成连续数。

Ansible的lookup插件sequence也可以用来生成连续数(Jinja2的range也可以生成连续数,稍后便会介绍)。其中:

  • (1).start参数指定序列的起始数,不指定该参数时默认从1开始
  • (2).end参数指定序列的终止数
  • (3).stride参数指定序列的步进值。不指定该参数时,步进为1(官方手册指明start大于end时,步进默认-1,但我测试时报错)
  • (4).format参数指定序列的输出格式,遵循printf风格。看下面示例便知用法
  • (5).count参数指定生成序列数的个数,不能和end参数共存

此外,sequence插件的各个参数可以简写为如下格式:

[start-]end[/stride][:format]

例如,下面是等价的写法

q('sequence', 'start=2 end=9 stride=2 format=a%02d')
q('sequence', '2-9/2:a%02d')

它们都将得到[ "a02", "a04", "a06", "a08" ]

q('sequence', '3:a%02d')将得到["a01", "a02", "a03"]

再来看with_sequence。例如:

---
- hosts: localhost
  gather_facts: false
  tasks: 
    - debug:
        msg: "_{{item}}_"
      with_sequence: start=0 end=3 format=a%02d

执行结果:

ok: [localhost] => (item=a00) => {
    "msg": "_a00_"
}
ok: [localhost] => (item=a01) => {
    "msg": "_a01_"
}
ok: [localhost] => (item=a02) => {
    "msg": "_a02_"
}
ok: [localhost] => (item=a03) => {
    "msg": "_a03_"
}

需要注意的是,因为生成的每个序列数都会经过字符串格式化,所以得到的每个序列元素都是字符串。如果想要转换成数值,需使用Jinja2的Filter。例如:

---
- hosts: localhost
  gather_facts: false
  tasks: 
    - debug:
        msg: "{{1 + item|int}}"
      with_sequence: start=0 end=3

with_sequence等价的loop写法为:

- debug:
    msg: "{{ 'a%02d' | format(item) }}"
  loop: "{{ range(0, 4 + 1, 2)|list }}"

Jinja2的range()也可以生成序列数。语法:

range(start,end,step)

注意range()不包含结尾数end。例如:

range(0,3)  ->  0 1 2
range(0,10,2)  ->  0 2 4 6 8

8.7.7 with_subelements

with_subelements用于迭代遍历子元素(特指一个列表类型的子元素),它使用lookup的subelements插件。

何为子元素?正常情况下迭代一个列表时,这个列表的模样可能是这样的:

logfiles:
  - /tmp/a.log
  - /tmp/b.log

student: 
  - name: junmajinlong
    age: 18
  - name: xiaowoniu
    age: 22

但如果上面字典的key(即logfiles和student)自身在列表内,那么它所在的字典就是外层列表中的一个元素,即子元素。例如:

files: 
  - configfiles:
      - /tmp/a.conf
      - /tmp/b.conf
  - logfiles:
      - /tmp/a.log
      - /tmp/b.log

persons:
  - student:
      - name: junmajinlong
        age: 18
      - name: xiaowoniu
        age: 22
  - teacher:
      - name: mayun
        age: 55
      - name: mahuateng
        age: 44

想要迭代这样的数据结构内层的一个子元素列表,其实并不那么方便。比如想要迭代files中的logfiles列表,可以写成如下方式:

loop: "{{files[1].logfiles}}"

上面将索引号硬编码了,是一种不友好不灵活的方式。另一方面,如果每个列表元素内还有相同的子元素名称,且想要迭代所有这些子元素,就更麻烦了。比如下面的结构:

vars:
  families:
    - father: Bob
      children:
        - name: Mike
          age: 4
        - name: Kate
          age: 7
    - father: Alex
      children:
        - name: Pete
          age: 12
        - name: Sara
          age: 17

想要迭代所有的children子列表项,直接迭代的方式会非常麻烦。

好在,Ansible已经提供了一个称为subelements的lookup插件,它可以查询到指定名称的子元素,并重写列表,方便之后的迭代操作。

看一个示例:

---
- hosts: localhost
  gather_facts: false
  vars:
    families:
      - father: Bob
        mother: Lisa
        children:
          - name: Mike
            age: 4
          - name: Kate
            age: 7
      - father: Alex
        mother: Alice
        children:
          - name: Pete
            age: 12
          - name: Sara
            age: 17
  tasks: 
    - debug:
        var: lookup('subelements', families ,'children')

上面lookup的第三个参数children表示的是要从families列表中查询的子元素,subelements插件会重写列表。至于如何重写,看下面的执行结果就知道了:

ok: [localhost] => {
  "lookup('subelements', families ,'children')": [
    [
      {"father": "Bob","mother": "Lisa"},
      {"age": 4,"name": "Mike"}
    ],
    [
      {"father": "Bob","mother": "Lisa"},
      {"age": 7,"name": "Kate"}
    ],
    [
      {"father": "Alex","mother": "Alice"},
      {"age": 12,"name": "Pete"}
    ],
    [
      {"father": "Alex","mother": "Alice"},
      {"age": 17,"name": "Sara"}
    ]
  ]
}

所以,with_subelements迭代子元素的时候,可以通过item.0.fatheritem.0.mother访问原列表中的项,使用item.1.ageitem.1.name访问子列表中的项。

例如:

---
- hosts: localhost
  gather_facts: false
  vars:
    families:
      - father: Bob
        mother: Lisa
        children:
          - name: Mike
            age: 4
          - name: Kate
            age: 7
      - father: Alex
        mother: Alice
        children:
          - name: Pete
            age: 12
          - name: Sara
            age: 17
  tasks: 
    - debug: 
        msg: "father: {{item.0.father}}, 
              mother: {{item.0.mother}}, 
              name: {{item.1.name}}, 
              age: {{item.1.age}}"
      with_subelements: 
        - "{{families}}"
        - children

with_subelements等价的loop写法为:

- debug:
    msg: "father: {{item.0.father}}, 
          mother: {{item.0.mother}}, 
          name: {{item.1.name}}, 
          age: {{item.1.age}}"
  loop: "{{families | subelements('children')}}"

8.7.8 with_nested

with_nested可以按照结合律的方式迭代两个或多个列表。

先看lookup nested插件的效果。例如,两个列表['a','b'][1,2,3]通过nested操作一番:

---
- hosts: localhost
  gather_facts: false
  tasks: 
    - debug:
        msg: "{{lookup('nested',['a','b'],[1,2,3])}}"

将得到:

ok: [localhost] => {
    "msg": [
        ["a", 1],
        ["a", 2],
        ["a", 3],
        ["b", 1],
        ["b", 2],
        ["b", 3]
    ]
}

所以,在with_nested迭代的时候,可以使用item.0来访问第一个列表的元素,item.1访问第二个列表的元素,item.N访问第N+1个列表的元素。

示例:

---
- hosts: localhost
  gather_facts: false
  tasks: 
    - debug:
        msg: "list1: {{item.0}}, list2: {{item.1}}"
      with_nested:
        - ['a','b']
        - [1,2,3]

执行结果:

ok: [localhost] => (item=['a', 1]) => {
    "msg": "list1: a, list2: 1"
}
ok: [localhost] => (item=['a', 2]) => {
    "msg": "list1: a, list2: 2"
}
ok: [localhost] => (item=['a', 3]) => {
    "msg": "list1: a, list2: 3"
}
ok: [localhost] => (item=['b', 1]) => {
    "msg": "list1: b, list2: 1"
}
ok: [localhost] => (item=['b', 2]) => {
    "msg": "list1: b, list2: 2"
}
ok: [localhost] => (item=['b', 3]) => {
    "msg": "list1: b, list2: 3"
}

with_nested等价的loop写法是:

- debug:
    msg: "list1: {{item.0}}, list2: {{item.1}}"
  loop: "{{ ['a','b'] | product( [1,2,3] ) | list}}"

product()筛选器可以将多个列表进行排列组合,组合效果和nested插件的效果是一样的。

8.7.9 with_random_choice

从列表中随机选取一个元素。

用法直接看示例:

---
- hosts: localhost
  gather_facts: false
  vars: 
    my_list: ["a","b","c","d"]
  tasks: 
    - debug:
        msg: "{{ item }}"
      with_random_choice: "{{ my_list }}"

    - debug:
        msg: "{{ my_list|random }}"

这个功能只需random()筛选器即可,无需loop指令。

8.7.10 with_fileglob

lookup插件fileglob可以使用通配符来通配文件名,所以with_fileglob用于迭代通配到的每个文件名。

例如:

---
- hosts: localhost
  gather_facts: no
  tasks: 
    - copy: 
        src: "{{item}}" 
        dest: /tmp/
      with_fileglob:
        - /etc/m*.conf
        - /etc/*.cnf

执行结果:

TASK [copy] ********************************
changed: [localhost] => (item=/etc/man_db.conf)
changed: [localhost] => (item=/etc/mke2fs.conf)
changed: [localhost] => (item=/etc/my.cnf)

因为并非直接迭代数据结构,所以with_fileglob没有对应的loop写法。

8.7.11 with_lines

lookup插件lines用于从命令的执行结果中读取每一行,所以with_lines用于迭代命令输出结果的每一行。

这功能也是非常实用的,比如find找出一堆文件,然后进行操作(比如copy)。

例如:

---
- hosts: localhost
  gather_facts: no
  tasks: 
    - copy: 
        src: "{{item}}" 
        dest: /tmp/shell_script/
      with_lines:
        - find ~ -maxdepth 1 -type f -name "a*.sh"

因为并非直接迭代数据结构,所以with_lines没有对应的loop写法。

关于with_xxx循环迭代的内容就介绍这么多,解释的已经足够多了,各位只需记住一点:只要有某个名为xxx的lookup插件,就可以编写对应的with_xxx来迭代。

8.7.12 循环和when

with_xxxloop指令和when指令一起使用时,when将在循环的内部进行条件判断。也就是说,when决定每轮迭代时是否执行一个任务,而不是决定整个循环是否进行。

例如下面的示例中,将输出3和4两个元素。

---
- hosts: localhost
  gather_facts: false
  tasks:
    - debug:
        var: item
      loop: [1,2,3,4]
      when: item >= 3

那要如何对整个循环进行判断:满足条件时才执行循环,否则不循环。

没有好办法,Ansible只支持when条件判断指令。所以,只能间接地完成目标,比如将when的条件人为设置为每轮循环都布尔false,这样每轮循环都跳过,相当于没执行循环。例如:

---
- hosts: localhost
  gather_facts: false
  tasks:
    - debug:
        var: item
      loop: [1,2,3,4]
      when: false

或者也可以使用一层block指令包围loop所在的任务,然后将when放在block层次,这样在层次上更为直观、可读一些,但功能和上面所说的是完全一致的,因为block级别的when指令会拷贝到所有子任务中。

例如,上面的playbook完全等价于:

---
- hosts: localhost
  gather_facts: false
  tasks:
    - block:
        - debug:
            var: item
          loop: [1,2,3,4]
      when: false

另外一种需求是判断某个需要迭代的变量(比如列表变量、字典变量)是否已定义,如果定义了则正常迭代,否则跳过整个循环。

---
- hosts: localhost
  gather_facts: false
  vars: 
    mylist: [1,2,3,4]
  tasks:
    - debug:
        var: item
      loop: "{{ mylist | default( [] ) }}"
      when: item >= 2

上面使用了default()筛选器函数,它的作用是,如果筛选器符号(那根竖线)左边的变量未定义,则以该筛选器的参数作为默认值。本例是以空列表[]作为默认值。所以,如果注释上面的mylist变量,则默认迭代空列表。

如果要迭代的是字典,则可按照如下方式处理:

---
- hosts: localhost
  gather_facts: false
  vars: 
    mydict: 
      one: 1
      two: 2
      three: 3
  tasks:
    - debug:
        var: item.key
      loop: "{{ mydict | default( {} ) | dict2items }}"
      when: item.value >= 2

8.7.13 循环和register

当register和循环指令结合一起使用的时候,效果和单独使用时不太一样。

看示例就知道了:

---
- hosts: localhost
  gather_facts: false
  vars: 
    mylist: [11, 22]
  tasks:
    - debug:
        var: item
      loop: "{{ mylist }}"
      register: res
    - debug: 
        var: res

其中第二个debug任务的执行结果如下:

ok: [localhost] => {
  "res": {
    "changed": false,
    "msg": "All items completed",
    "results": [
      {
        "ansible_loop_var": "item",
        "changed": false,
        "failed": false,
        "item": 11
      },
      {
        "ansible_loop_var": "item",
        "changed": false,
        "failed": false,
        "item": 22
      }
    ]
  }
}

再来一个shell模块的示例:

---
- hosts: localhost
  gather_facts: false
  vars: 
    mylist: [11,22]
  tasks:
    - shell: echo {{item}}
      loop: "{{ mylist }}"
      register: res
    - debug: 
        var: res

其中第二个任务的执行结果为:

ok: [localhost] => {
  "res": {
    "changed": true,
    "msg": "All items completed",
    "results": [
      {
        "ansible_loop_var": "item",
        "changed": true,
        "cmd": "echo 11",
        "delta": "0:00:00.001643",
        "end": "2020-01-16 06:40:05.012729",
        "failed": false,
        "invocation": {
          "module_args": {
            ......
          }
        },
        "item": 11,
        "rc": 0,
        "start": "2020-01-16 06:40:05.011086",
        "stderr": "",
        "stderr_lines": [],
        "stdout": "11",
        "stdout_lines": [
          "11"
        ]
      },
      {
        "ansible_loop_var": "item",
        ......
        "stdout": "22",
        "stdout_lines": [
          "22"
        ]
      }
    ]
  }
}

可见,当register和循环指令结合时,会将每轮迭代的模块执行结果以一个字典的方式追加在一个名为results的列表中。即:

"res": {
  "changed": true,
  "msg": "All items completed",
  "results": [
    {
      ...第一轮迭代模块返回值...
    },
    {
      ...第二轮迭代模块返回值...
    }
  ]
}

所以,可使用res.results来访问每轮的迭代结果。例如,再次迭代遍历这些结果:

---
- hosts: localhost
  gather_facts: false
  vars: 
    mylist: [11,22]
  tasks:
    - shell: echo {{item}}
      loop: "{{ mylist }}"
      register: res
    - debug: 
        var: item.stdout
      loop: "{{res.results}}"

8.7.14 循环的控制:loop_control

不知大家是否还记得,在第七章整理nginx Role的时候曾用过一个loop_control指令来控制循环的一些行为。下面我要介绍的,就是Ansible提供的循环控制功能。

循环控制功能需要在使用循环的时候使用loop_control指令,该指令有一些参数,每种参数都是一个控制开关。

1.label参数

循环迭代时,每轮迭代过程中都会将当前的item输出(要么输出到屏幕,要么输出到日志)。如果所迭代的每项的内容(即每个item)很短,这倒无所谓,但如果item的内容很长,则可读性比较差。

看一个示例先:

---
- hosts: localhost
  gather_facts: false
  vars: 
    mylist: [11,22]
  tasks:
    - shell: echo {{item}}
      loop: "{{ mylist }}"
      register: res
    - debug: 
        var: item.stdout
      loop: "{{res.results}}"

下图是第一次迭代debug任务时的输出结果:

使用label参数可以自定义迭代时显示的内容来替代默认显示的item。例如:

---
- hosts: localhost
  gather_facts: false
  vars: 
    mylist: [11,22]
  tasks:
    - shell: echo {{item}}
      loop: "{{ mylist }}"
      register: res
    - debug: 
        var: item.stdout
      loop: "{{res.results}}"
      loop_control:
        label: "hhhh"

再执行,将显示为:

TASK [debug] ********************
ok: [localhost] => (item=hhhh) => {
    "ansible_loop_var": "item",
    "item": {
    ...........

2.pause参数

loop_control的pause参数可以控制每轮迭代之间的时间间隔。

例如:

---
- hosts: localhost
  gather_facts: false
  vars: 
    mylist: [11,22]
  tasks:
    - debug: 
        var: item
      loop: "{{mylist}}"
      loop_control:
        pause: 1

这表示第一轮迭代后,等待一秒,再进入第二轮迭代。

3.index_var参数

index_var参数可以指定一个变量,这个变量可以记录每轮循环迭代过程中的索引位,也即表示当前是第几轮迭代。

例如:

---
- hosts: localhost
  gather_facts: false
  vars: 
    mylist: [11,22]
  tasks:
    - debug: 
        msg: "index: {{idx}}, value: {{item}}"
      loop: "{{mylist}}"
      loop_control:
        index_var: idx

输出结果:

ok: [localhost] => (item=11) => {
    "msg": "index: 0, value: 11"
}
ok: [localhost] => (item=22) => {
    "msg": "index: 1, value: 22"
}

通过index_var,可以进行一些条件判断。比如只在第一轮循环时执行某任务:

---
- hosts: localhost
  gather_facts: false
  vars: 
    mylist: [11,22]
  tasks:
    - debug: 
        msg: "index: {{idx}}, value: {{item}}"
      when: idx == 0
      loop: "{{mylist}}"
      loop_control:
        index_var: idx

4.loop_var参数

循环迭代时,默认都使用item作为迭代变量,一般情况下这没什么问题。

但如果出现内外嵌套的循环,内层的迭代变量将覆盖外层的迭代变量所谓内外嵌套的循环,主要体现在循环结合include_tasks指令,而所导入的任务文件中又有循环的情况。这种情况在第七章整理Nginx Role的时候已经遇到过一次。

例如,playbook文件main.yml内容如下:

执行playbook,将输出3次"a"、"b"和"c",且此时因为内部循环的迭代变量item覆盖了外层迭代变量item,使得无法在内部循环中引用外部循环的信息。

要避免内外嵌套循环的迭代变量冲突问题,可以使用loop_var参数来修改迭代变量。

例如,下面示例中将外层循环的迭代变量修改为out_item

# main.yml
---
- hosts: localhost
  gather_facts: no
  tasks:
    - include_tasks: test.yml
      loop: [1,2,3]
      loop_control:
        loop_var: out_item

# test.yml
---
- debug: 
    msg: "inner_item: {{item}}, outer_item: {{out_item}}"
  loop: ['a','b','c']

5.extended参数

从Ansible 2.8开始,还支持使用extended参数来获取更多循环的信息。

loop_control:
  extended: yes

打开extended的开关后,将可以在循环内部使用下面一些变量。

变量名 含义
ansible_loop.allitems 循环中所有的item
ansible_loop.index 本轮迭代的索引位,即第几轮迭代(从1开始计数)
ansible_loop.index0 本轮迭代的索引位,即第几轮迭代(从0开始计数)
ansible_loop.revindex 本轮迭代的逆向索引位(距离最后一个item的长度,从1开始计数)
ansible_loop.revindex0 本轮迭代的逆向索引位(距离最后一个item的长度,从0开始计数)
ansible_loop.first 如果本轮迭代是第一轮,则该变量值为True
ansible_loop.last 如果本轮迭代是最后一轮,则该变量值为True
ansible_loop.length 循环要迭代的轮数,即item的数量
ansible_loop.previtem 本轮迭代的前一轮的item值,如果当前是第一轮,则该变量未定义
ansible_loop.nextitem 本轮迭代的下一轮的item值,如果当前是最后一轮,则该变量未定义

来个示例,循环迭代一个包含4个元素的列表,并在第一轮迭代时输出上面所有变量的值。

---
- hosts: localhost
  gather_facts: false
  tasks: 
    - debug:
        msg: 
          - "ansible_loop.allitems: {{ansible_loop.allitems}}"
          - "ansible_loop.index: {{ansible_loop.index}}"
          - "ansible_loop.index0: {{ansible_loop.index0}}"
          - "ansible_loop.revindex: {{ansible_loop.revindex}}"
          - "ansible_loop.revindex0: {{ansible_loop.revindex0}}"
          - "ansible_loop.first: {{ansible_loop.first}}"
          - "ansible_loop.last: {{ansible_loop.last}}"
          - "ansible_loop.length: {{ansible_loop.length}}"
          - "ansible_loop.previtem: {{ansible_loop.previtem | default('')}}"
          - "ansible_loop.nextitem: {{ansible_loop.nextitem}}"
      when: ansible_loop.first
      loop: "{{mylist}}"
      loop_control:
        extended: yes
      vars: 
        mylist: ['a','b','c','d']

上面的when指令使用了ansible_loop.first来判断是否是第一轮迭代,通过ansible_loop.index也可以判断。此外,刚才也介绍过使用index_var的方式来判断处于第几轮判断。

另外,上面的msg参数使用了列表形式,如果不使用列表,debug输出的时候,所有内容都会输出在同一行中,而使用列表则每项都单独成行输出。

下面是执行结果:

TASK [debug] **********************************
ok: [localhost] => (item=a) => {
    "msg": [
        "ansible_loop.allitems: ['a', 'b', 'c', 'd']",
        "ansible_loop.index: 1",
        "ansible_loop.index0: 0",
        "ansible_loop.revindex: 4",
        "ansible_loop.revindex0: 3",
        "ansible_loop.first: True",
        "ansible_loop.last: False",
        "ansible_loop.length: 4",
        "ansible_loop.previtem: ",
        "ansible_loop.nextitem: b"
    ]
}
skipping: [localhost] => (item=b)
skipping: [localhost] => (item=c)
skipping: [localhost] => (item=d)

8.8 异常和错误处理

在此之前的文章中,几乎没有讨论过Ansible执行失败的情况,在此文章之后可能也不会做太多的讨论,但是学会处理失败、错误却是极其重要的,这可以让playbook更加健壮,甚至有时候是必须的。比如之前曾提到过,执行shell或command模块时,Ansible只认为0退出状态码是正确的,其它所有退出状态码都是失败的,但我们自己知道非0退出状态码并非一定代表着失败。

默认情况下,Ansible端无法连接某个节点时、某节点执行某个任务失败时,Ansible都会将这个节点从活动节点列表中(即play_hosts变量中)移除,以避免该节点继续执行之后的任务。用户可以去修改Ansible对这种异常现象的默认处理方式,比如遇到错误也不让该节点退出舞台,而是继续执行后续任务,又或者某节点执行任务失败并让整个play都失败。

接下来,将介绍如何处理失败、如何定义失败、如何强制成功、如何强制失败以及异常处理相关的一些逻辑。

8.8.1 人为制造失败:fail模块

使用fail模块,可以人为制造一个失败的任务。

---
- hosts: nginx
  gather_facts: no
  tasks: 
    - fail:
        msg: "oh, not me"
      when: inventory_hostname == groups['nginx'][0]
    - debug: 
        msg: "hello"

上面的fail会任务失败,并使得此节点不会执行后续任务,但其它节点会继续执行任务。

8.8.2 断言:assert模块

对于当满足某某条件时就失败的逻辑,可以使用fail模块加when指令来实现,也可使用更为直接的assert模块进行断言。

例如:

---
- hosts: localhost
  gather_facts: no
  tasks: 
    - assert:
        that:
          - 100 > 20
          - 200 > 200
        fail_msg: "oh, not me"
        success_msg: "oh, it's me"

其中that参数接收一个列表,用于定义一个或多个条件,如果条件全为true,则任务成功,只要有一个条件为false,则任务失败。fail_msg(或其别名参数msg)定义任务失败时的信息,success_msg定义任务成功时的信息。

8.8.3 ignore_errors

当某个任务执行失败(或被Ansible认为失败,比如通过返回值判断)时,如果不想让这个失败的任务导致节点退出,可以使用ignore_errors指令来忽略失败。

例如:

---
- hosts: localhost
  gather_facts: no
  tasks:
    - shell: ls /tmp/klakas/kjlasd8293
      ignore_errors: yes
    - debug: 
        msg: "hello world"

执行结果:

从结果可知,虽然因文件不存在而导致shell模块失败了(FAILED),但却因为使用了ignore_errors指令而忽略(ignoring)了失败,这使得当前节点并未从play_hosts变量中移除,所以当前节点继续执行了后续的debug任务。

但是从结果中可以看到,虽然确实忽略了错误,但红红的一片失败仍然提醒在终端屏幕上,对有些人来说(其实是我自己)这可能不太友好:我已经对可能的失败做好了处理,你忽略便安安静静的忽略好了,请不要用亮瞎眼睛的红色来提醒我。

所以,我觉得应该采用另一种方式来处理可能的失败:failed_when。

8.8.4 failed_when

在之前的文章中曾介绍过changed_when指令(如果忘记了,请回头复习),它可以让用户自己定义当前任务的changed状态。

failed_when指令差不多,它可以让用户自己定义任务何时失败:当条件表达式为true时任务强制失败,当条件表达式为false时,任务强制不失败

例如,下面的示例中不管shell模块是否正确执行,都认为这个任务成功执行:

---
- hosts: localhost
  gather_facts: no
  tasks:
    - shell: ls /tmp/klakas/kjlasd8293
      failed_when: false
    - debug: 
        msg: "hello world"

failed_when经常会和shell或command模块以及register指令一起使用,用来手动定义失败的退出状态码。比如,退出状态码为0 1 2都认为任务成功执行,其它状态码都认为认为执行失败。

- shell: COMMAND
  register: res
  failed_when: res.rc not in (0, 1, 2)

如果这时候去查看res变量,将会发现多出了一项failed_when_result

{
  "changed": true,
  "cmd": "ls /tmp/klakas/kjlasd8293",
  "delta": "0:00:00.002469",
  "end": "2020-01-17 00:18:49.437885",
  "failed": false,
  "failed_when_result": false,
  "msg": "non-zero return code",
  "rc": 2,
  "start": "2020-01-17 00:18:49.435416",
  "stderr": "ls: cannot access /tmp/klakas/kjlasd8293: No such file or directory",
  "stderr_lines": [
      "ls: cannot access /tmp/klakas/kjlasd8293: No such file or directory"
  ],
  "stdout": "",
  "stdout_lines": []
}

failed_when_result记录了failed_when指令的渲染结果是true还是false,本例中渲染结果为false。

此外,failed_whenwhen一样都可以将多个条件表达式写成列表的形式来表示逻辑与。例如:

- shell: xxxxxx
  register: res
  failed_when: 
    - res.rc != 0 
    - res.stdout == "yyyyy"

8.8.5 rescue和always

Ansible允许在任务失败的时候,去执行某些任务,还允许不管任务失败与否,都执行某些任务。这功能类似于编程语言的try...catch异常捕获。

关于这两个指令:

  • (1).rescue和always都是block级别的指令
  • (2).rescue表示block中任意任务失败后,都执行rescue中定义的任务,但如果block中没有任务失败,则不执行rescue中的任务
  • (3).always表示block中任务无论失败与否,都执行always中定义的任务

例如:

---
- hosts: localhost
  gather_facts: no
  tasks: 
    - block:
        - fail: 
        - debug: msg="hello world"
      rescue:
        - debug: msg="rescue1"
        - debug: msg="rescue2"
      always:
        - debug: msg="always1"
        - debug: msg="always2"

block中的fail任务会失败,于是跳转到rescue中开始执行任务,然后再跳转到always中执行任务。

如果注释掉block中的fail模块任务,则block中没有任务失败,于是rescue中的任务不会执行,但是在执行完block中所有任务后会跳转到always中继续执行任务。

8.8.6 any_errors_fatal

如果想让某个失败的任务直接导致整个play的失败,可在play级别使用any_errors_fatal指令。

---
- hosts: nginx
  gather_facts: no
  any_errors_fatal: true
  tasks: 
    - fail:
        msg: "oh, not me"
      when: inventory_hostname == groups['nginx'][0]
    - debug: 
        msg: "hello"

- hosts: localhost
  gather_facts: no
  tasks: 
    - debug: 
        msg: "HELLO WORLD"

any_errors_fatal设置为true后,nginx组第一个节点只要一开始执行fail任务,整个playbook中所有后续任务都将不再执行,就连其它play也一样不执行。

注意观察playbook的执行结果,它将提示"NO MORE HOSTS LEFT":

.........
TASK [fail] *********************
fatal: [192.168.200.42]: FAILED! => {"changed": false, "msg": "oh, not me"}
skipping: [192.168.200.43]
skipping: [192.168.200.44]

NO MORE HOSTS LEFT **************

PLAY RECAP *************
.........

8.8.7 max_fail_percentage

max_fail_percentageany_errors_fatal功能是类似的,都是play级别的指令。

max_fail_percentage用来定义play所选中的目标节点中有百分之几的节点执行任务失败后,将导致整个playbook的失败。

注:max_fail_percentage严格来说不是从play所选目标节点中计算百分比,而是根据serial指令设置的值来计算百分比,如果没有设置serial,则根据hosts指令选中的目标节点数量计算百分比。之后需要的时候再介绍serial指令的作用。

显然,any_errors_fatalmax_fail_percentage一个特殊情况,等价于百分比设置为0,即任何节点执行任务失败都导致整个playbook的失败。

例如,使用10个不存在的主机作为目标节点,然后控制失败的主机百分比。

inventory文件内容如下:

[failgrp]
failer[01:10]

playbook内容如下:

---
- hosts: failgrp
  gather_facts: no
  max_fail_percentage: 40
  tasks: 
    - fail: 
        msg: "oh, not me"
      when: inventory_hostname in play_hosts[0:5]
    - debug: 
        msg: "hello world"

因为failgrp中的10个节点都不存在,所以这10个节点执行任务全都会失败。又因为指定了最大失败百分比为40%,when指令控制了5个节点执行任务,所以实际的失败节点百分比为50%,大于40%,于是第五个节点执行任务失败后会导致整个playbook的失败。

需要注意一点,计算的失败节点百分比必须大于而不能等于max_fail_percentage的值才会导致整个playbook的失败。比如10个节点,最多允许2个节点失败,那么max_fail_percentage的值可以设置为20~29。

8.8.8 处理连接失败(unreachable)的异常

如果Ansible突然和某个节点无法连接上,会将此节点设置为UNREACHABLE状态,并从活动节点列表(play_hosts)中删除。

如果想要忽略连接失败的节点,可设置ignore_unreachable: true指令,该指令是Ansible 2.7添加的,可设置在play、Role、block、task级别上。

如果想要恢复play_hosts中所有被删除的节点,可以使用meta: clear_host_errors

当Ansible遇到UNREACHABLE时,会进行连接重试。重试次数可在Ansible配置文件中配置:

$ grep -B 3 'retries' /etc/ansible/ansible.cfg
# Number of times to retry an SSH connection to a host, in case of UNREACHABLE.
# For each retry attempt, there is an exponential backoff,
# so after the first attempt there is 1s wait, then 2s, 4s etc. up to 30s (max).
#retries = 3

8.8.9 任务失败导致handler未执行

如果某节点执行某任务失败,但在失败任务之前已经触发了handler,那么该节点将因为失败而无法执行handler任务。

有时候这种默认的异常处理并非理想的处理方式。比如copy了一个nginx配置文件并触发了重启Nginx服务的handler,但是再重启之前执行某个任务失败了,那么该节点将不会重启nginx,但配置文件确实已经拷贝过去了且发生改变了。

可以在命令行上使用--force-handlers选项,也可在play级别使用force_handlers: true指令,它们都表示即使该节点执行任务失败了,也会执行已经触发的handler任务。

但要注意,只有因任务执行失败的情况才能强制执行Handler任务,如果是因为unreachable而导致的失败,显然是没有办法的。

--force-handlersforce_handlers: true是对play全局生效的,如果想针对单个任务,也可以使用rescue或always的方式来flush handler。例如:

tasks: 
  - block:
      - template: 
          src: nginx.conf.j2
          dest: /etc/nginx/nginx.conf
        notify: restart nginx
    rescue: 
      - meta: flush_handlers

8.9 其它Ansible流程控制逻辑的进阶

8.9.1 until和retry

通过until指令,可以实现同一个任务多次执行,直到满足某条件才停止。这在某些场景下非常实用,比如不断测试一个页面,直到页面正常响应之后执行某任务,再比如等待某个进程出现或某个进程消失,然后执行某任务,等等。

until通常会结合retries指令和delay指令一起使用,如果没有指定这两个指令的值,则retries默认值为3,delay默认值为5。

例如:

---
- hosts: localhost
  gather_facts: no
  tasks: 
    - shell: echo $RANDOM
      register: res
      until: "res.stdout|int < 5000"
      retries: 20
      delay: 1

上面的res.stdout|int使用了int筛选器,表示将输出的字符串转换成数值类型,以便和数值进行大小比较。

上面的shell任务会每隔一秒多次输出随机数,如果某次生成的随机数小于5000,则成功并停止,如果20次输出之后仍然没有遇到小于5000的随机数,则任务失败(注意是失败,不是简单的停止,后文会介绍Ansible如何处理失败的任务)。

ansible-playbook命令加上-v选项可以看到任务跳过的情况。各位可以自己测试执行一下,下面是其中一段输出:

$ ansible-playbook test.yml
......
TASK [shell] ******************************************
FAILED - RETRYING: command (20 retries left).
FAILED - RETRYING: command (19 retries left).
FAILED - RETRYING: command (18 retries left).
FAILED - RETRYING: command (17 retries left).
FAILED - RETRYING: command (16 retries left).
changed: [localhost] => {"attempts": 6, "changed": true
......

注意观察上面的输出结果,在register注册的变量中多出了一个attempts字段,用来记录尝试了多少次。

需要提醒各位,retries指令和delay指令并非一定要和until一起使用。但如果retries不和until一起使用时,其值将强制设置为1,又因为retries强制设置为1,会使得决定两次尝试时间间隔的delay无效。

例如:

---
- hosts: localhost
  gather_facts: no
  tasks: 
    - shell: echo $RANDOM
      register: res
      retries: 20
      delay: 5
    - debug:
        msg: "hello world"

上面执行完shell任务后会立即执行debug任务,不会进行任何等待。

8.9.2 pause模块暂停、休眠

有时候可能想要让Ansible睡眠几秒,然后再继续执行后续任务,就像sleep命令一样。

Ansible中,可以使用pause模块或wait_for模块来实现睡眠等待的功能,wait_for稍后会详细说明,现在先简单演示pause模块的用法。

pause可以等待几分钟、几秒钟、等待交互式输入确定。

例如,先睡眠5秒,再执行debug任务:

---
- hosts: localhost
  gather_facts: no
  tasks:
    - pause:
        seconds: 5
    - debug: 
        msg: "hello world"

睡眠1分钟:

- pause: 
    minutes: 1

交互式输入Enter键确认:

tasks:
  - pause:
  - debug: 
      msg: "hello world"

带提醒的交互式输入:

- pause:
    prompt: "give me your name!"

隐藏用户的输入:

- pause:
    prompt: "give me your name"
    echo: no

将用户交互式输入内容注册成变量:

---
- hosts: localhost
  gather_facts: no
  tasks:
    - pause:
        prompt: "your passwd"
        echo: no
      register: passwd
    - debug: 
        msg: "{{passwd.user_input}}"

8.9.3 wait_for模块和wait_for_connection模块

wait_for模块功能丰富,在Ansible中可以看作是一把事件等待方面的瑞士军刀,它可以等待多种事件的发生。

我简单列举了一下wait_for常用的功能:

  • (1).等待端口打开和端口关闭
  • (2).等待没有活动连接(在等待移除某个负载均衡节点时可能会有用)
  • (3).等待文件被创建或移除
  • (4).等待或睡眠指定秒数
  • (5).等待系统重启(即等待SSH连接重新建立)
  • (6).等待文件中出现某个字符串
  • (7).等待进程退出

其中等待建立SSH连接的功能也可以实用wait_for_connection。此外,如果是Ansible 2.7,等待重启还可以使用更简单的reboot模块。

wait_for是比较常用的模块,所以这里举几个例子来演示用法。

1.睡眠几秒后,任务继续

# 休眠五秒,然后任务继续
- wait_for:
    timeout: 5

2.等待文件存在后,任务继续

例如,等待/tmp/a.log文件的存在:

- wait_for:
    path: /tmp/a.log
    deley: 3
    sleep: 1
    timeout: 20

解释吓上面三个参数的含义:

  • (1).delay 3表示3秒后才开始进入第一轮事件等待检查(默认值为0)
  • (2).sleep 1表示每隔1秒进行一次事件等待检查(默认值为1)
  • (3).timeout 20表示最多等待20秒(默认值为300),如果20秒内未等待到事件发生,则wait_for任务失败并报错

timeout参数比较特别,如果wait_for仅指定了timeout参数,表示睡眠几秒,几秒过后任务继续而不会报错。如果timeout和其它参数同时使用,则表示等待事件发生的超时时间,如果超时时间内事件还未发生,则任务失败并报错。如果使用了其它参数,且没有指定timeout,则默认超时时间300秒。

3.等待文件不存在后,任务继续

注:如果文件本就不存在,则任务也会继续。

- wait_for:
    path: /tmp/a.log
    state: absent

该功能可能更多用于等待某个pid文件或锁文件被移除。

4.等待进程不存在后,任务继续

这个功能是通过等待/proc/PID/不存在的方式来间接实现的。所以可能需要先使用shell模块或pids模块来根据进程名称获取PID。

例如,等待所有sleep进程退出后执行一个debug任务:

---
- hosts: localhost
  gather_facts: no
  tasks: 
    - pids:
        name: "sleep"
      register: sleep_pids

    - wait_for:
        path: "/proc/{{item}}"
        state: absent
      loop: "{{sleep_pids.pids}}"

    - debug: 
        msg: 'hello world'

pids模块可以根据进程名获取进程PID列表(可能是空列表、单元素列表、多元素列表)。注意该模块要求先安装python的psutil模块,所以如果要使用pids,可执行:

$ yum install python3-devel
$ pip3 install psutil

因为pids可能返回多个进程PID,也可能是空列表,所以这里使用loop结合wait_for,这会迭代所有sleep进程的PID,也即会等待所有sleep进程退出。

5.等待文件中出现某字符串后,任务继续

可以使用search_regex参数指定正则表达式来搜索文件。

例如,等待a.log文件中出现了completed或finished,才继续执行后续任务。

- wait_for:
    path: /tmp/a.log
    search_regex: completed|finished

注意,如果文件不存在,则也会等待。

如果正则表达式中使用了分组捕获功能,并且想引用分组匹配的结果,可使用register注册变量,然后去debug调试变量,观察如何引用对应分组的内容,这里我多不做演示。

6.等待某端口打开,然后任务继续

wait_for模块的port参数可以指定要等待的端口,当端口打开之后,才继续执行后续的任务。默认情况下,等待的是127.0.0.1:PORT套接字,但是也可以使用host参数指定等待哪个主机的端口。一般来说是让Ansible端等待目标节点上的端口,所以一般会将这时的wait_for委托给Ansible端执行,并设置host参数为inventory_hostname或其他表示目标主机的值。

例如,下面的代码片段表示nginx组的第一个节点等待它自身开启8888端口

---
- hosts: nginx
  gather_facts: false
  tasks: 
    - wait_for:
        port: 8888
      when: inventory_hostname == groups['nginx'][0]
    - debug:
        msg: "hello world"

为了测试,可使用nc命令或socat命令来创建TCP套接字,让它们监听在指定的端口上(即打开指定端口)。以nc命令为例,使用-l选项表示监听哪个端口,使用-k选项表示长连接,即允许接收多个连接请求(换句话说,不使用-k时,接受一个请求后就退出)。

所以,在nginx组的第一个节点上执行:

# 持久监听8888端口
$ nc -k -l 8888

当目标节点等待到自身的8888端口后,就会继续执行后续任务。

更常见的用法是将端口等待任务委托给Ansible,然后设置host参数为目标节点的地址。例如:

---
- hosts: nginx
  gather_facts: false
  tasks: 
    - wait_for: 
        port: 8888
        host: "{{inventory_hostname}}"
      delegate_to: localhost
      when: inventory_hostname == groups['nginx'][0]
    - debug: 
        msg: "hello world"

如果各位查看wait_for的官方手册,将会发现官方给的示例中有这么一段:

- name: Wait 300 seconds for port 22 to become open and contain "OpenSSH"
  wait_for:
    port: 22
    host: '{{ (ansible_ssh_host|default(ansible_host))|default(inventory_hostname) }}'
    search_regex: OpenSSH
    delay: 10
  connection: local

稍后再解释这个任务的作用,先看本示例中的host参数和connection指令。

使用(ansible_ssh_host|default(ansible_host))|default(inventory_hostname)是因为inventory_hostname不一定总是能够解析的,比如下面的inventory定义方式:

luanqibazaodezhujiming ansible_host=192.168.200.42

使用ansible_ssh_hostansible_host是因为Ansible版本不同,变量名不同,但它们的作用是等价的:ansible_host是较新版本的Ansible所支持的。

使用connection: local而不是delegate_to: localhost,是因为delegate_to会使得被收集的变量信息来自于被委托节点,所以ansible_host的值将为被委托节点的主机名(或IP地址),本例即localhost。而connection: local则保留本该执行任务的节点信息,并将任务委托给指定节点,所以ansible_host的值将是nginx组第一个节点的IP地址。

所以,官方给出的示例更为健壮,但如果你能确保目标节点的inventory_hostname可解析,则直接使用我所给出的方案即可:

- wait_for: 
    port: 8888
    host: "{{inventory_hostname}}"
  delegate_to: localhost

7.等待某端口打开,并检索TCP请求的响应数据是否包含某字符串,然后任务继续

该功能看似晦涩,但它的功能是非常实用的,比如可用于检测SSH端口是否开启,更深入一点思考,这可以让Ansible等待(断开连接或系统重启的)目标节点重新被连接上。

例如:

- wait_for:
    port: 22
    host: '{{ (ansible_ssh_host|default(ansible_host))|default(inventory_hostname) }}'
    search_regex: OpenSSH
  connection: local

下面是等待目标节点重启的示例代码片段,这在Ansible管理系统升级或内核升级或因某些原因需系统重启时非常实用。

- shell: reboot
  async: 1
  poll: 0

- wait_for: 
    port: 22
    host: "{{(ansible_ssh_host|default(ansible_host))|default(inventory_hostname)}}"
    search_regex: OpenSSH
    delay: 5
    timeout: 60
  connection: local

async和poll这里不展开描述,仅解释下在此示例中表示什么含义:Ansible端让执行shell模块的任务放入后台异步执行,并且不要去管它是否执行完成。换句话说,Ansible立即去执行wait_for任务。

等待SSH连接的重新建立也可以使用wait_for_connection模块:

- shell: reboot
  async: 1
  poll: 0

- wait_for_connection: 
    timeout: 60

重启目标节点并等待与之重新建立连接的功能,也可以使用更为简单的reboot模块(要求Ansible 2.7或以上版本):

# 重启并重新建立连接,只等待60秒
- reboot:
    reboot_timeout: 60

8.等待某端口上没有了(即耗尽)活动连接,然后任务继续

这是wait_for的高级用法,在负载均衡集群中可谓大发神威。这里解释下来龙去脉,再通过简单示例演示下它的用法。

何为耗尽活动连接?假如有如下负载均衡环境:

如果需要暂时维护负载节点webserver1,则尽可能将该节点设置为drained状态,drained状态表示不再接收新的连接请求,但是仍然处理之前已经接收到的请求,直到处理完所有请求,断开所有活动的连接,管理员再去维护该节点。可能大家已经想到了nginx和httpd,没错,drained状态,其实就是服务程序的graceful restart/reload的概念,只不过描述对象不同,drained针对的是TCP连接,graceful xxx过程中针对的是服务请求。

wait_for模块可以等待在某个端口上,直到耗尽该端口上所有活动的连接,然后再执行后续任务。比如,等待webserver1断开所有活动连接后,升级该节点上的haproxy服务。

---
- hosts: nginx
  gather_facts: no
  tasks:
    - wait_for:
        port: 8888
        host: 0.0.0.0
        state: drained
      when: inventory_hostname == groups['nginx'][0]
    - debug: 
        msg: "hello world"

这表示nginx主机组的第一个节点上0.0.0.0:8888没有活动连接后,继续执行debug任务。

为了测试,在nginx主机组第一个节点上(假设IP地址为192.168.200.42)使用nc命令监听8888端口:

$ nc -k -l 8888

然后仍然通过nc命令(或telnet、socat等)当作tcp客户端,连接到该节点的8888端口上。

$ nc -v 192.168.200.42 8888

该连接将一直保持活动,所以这时运行上面的playbook,Ansible将一直等待在wait_for任务上。

如果关闭上述TCP连接(对于nc命令,按下ctrl+c即可),则Ansible会继续执行后续任务。

整个操作过程如下图所示:

关于wait_for模块,就介绍这么多,主要功能都介绍完了,还有一些参数,大家可自己去官方手册上浏览。

posted @ 2023-09-20 21:28  骏马金龙  阅读(247)  评论(0编辑  收藏  举报