lambda表达式和推导式,可实现使用一行语句完成功能开发的效果,减少代码量。

1.lambda表达式

匿名函数,即没有名字的函数

1.1基本语法:

lambda argument_list: expression

其中,lambda是预留关键字,argument_list和expression由用户自定义。

说明:argument_list中参数形式可以是单个参数,如:a,也可以是多个参数,如:a,b 或者a,*args或者**kwargs

expression是一个关于参数的表达式,表达式中出现的参数需要在argument_list中有定义,并且表达式只能是单行的。如:NONE,sum(a),a+b,if a>10 else 0

1.2用法:

1.2.1 将lambda函数赋值给一个变量,通过这个变量间接调用该lambda函数,如:add=lambda x, y: x+y定义了加法函数lambda x, y: x+y,并将其赋值给变量add,这样变量add便成为具有加法功能的函数。例如,执行add(1,2),输出为3。

1.2.2 将lambda函数赋值给其他函数,从而将其他函数用该lambda函数替换,如:time.sleep=lambda x:None。这样,在后续代码中调用time库的sleep函数将不会执行原有的功能。例如,执行time.sleep(3)时,程序不会休眠3秒钟,而是什么都不做,从而把标准库time中的函数sleep的功能屏蔽。

1.2.3 将lambda函数作为其他函数的返回值,返回给调用者,如:return lambda x, y: x+y返回一个加法函数。lambda函数实际上是定义在某个函数内部的函数,称之为嵌套函数,或者内部函数。对应的,将包含嵌套函数的函数称之为外部函数。内部函数能够访问外部函数的局部变量。

1.2.4 将lambda函数作为参数传递给其他函数,如:

 

  •  filter函数。此时lambda函数用于指定过滤列表元素的条件。例如filter(lambda x: x % 3 == 0, [1, 2, 3])指定将列表[1,2,3]中能够被3整除的元素过滤出来,其结果是[3]。

 

  • sorted函数。此时lambda函数用于指定对列表中所有元素进行排序的准则。例如sorted([1, 2, 3, 4, 5, 6, 7, 8, 9], key=lambda x: abs(5-x))将列表[1, 2, 3, 4, 5, 6, 7, 8, 9]按照元素与5距离从小到大进行排序,其结果是[5, 4, 6, 3, 7, 2, 8, 1, 9]。

  • map函数。此时lambda函数用于指定对列表中每一个元素的共同操作。例如map(lambda x: x+1, [1, 2,3])将列表[1, 2, 3]中的元素分别加1,其结果[2, 3, 4]。

  • reduce函数。此时lambda函数用于指定列表中两两相邻元素的结合条件。例如reduce(lambda a, b: '{}, {}'.format(a, b), [1, 2, 3, 4, 5, 6, 7, 8, 9])将列表 [1, 2, 3, 4, 5, 6, 7, 8, 9]中的元素从左往右两两以逗号分隔的字符的形式依次结合起来,其结果是'1, 2, 3, 4, 5, 6, 7, 8, 9'。

以上转自:https://blog.csdn.net/zjuxsl/article/details/79437563

2 推导式

通过举例形式来说明各推导式。

2.1 列表推导式

list=[1,2,3,4]

list_c=[i+1 for i in list if i>1]

print (list_c)

输出[3,4,5]

2.2 集合推导式

与2.1区别,用的是 {},而非[]

list_u={1,2,3,4}

list_uc={i+1 for i in list_u if i>2}

print (list_uc)

输出:{2,3,4,5},注意:顺序是随机不同,注意集合的特性-无序!

2.3字典推导式

d_json={

     key1:20,

     key2:30,

     key3:40

}

keys={key for key in d_json}

print (keys)

输出:{“key1","key2","key3"}

key_v={key:value for key,value in d_json.items()) 注意:这里因为要取value值,需要使用items()

print(key_v)

输出:{'key1':20,'key2':30,'key3':40}

posted on 2019-03-20 14:42  dLarger  阅读(602)  评论(0编辑  收藏  举报