list与set的查询效率,大量数据查询匹配,必须选set

今天吃了个基础差的亏,虽然说知道list和set有查询效率上的区别,但是一直不当回事

这次碰到一个活,要求是将45w的2组数据,进行匹配合并

一个是店铺导出的订单数据,一个是快递给的物流数据

需要把2个匹配合并到一个表格,当然,有些人会说了,用excel处理,函数啥的,1个文件都有1g多,打开电脑得等好久才能反应,要匹配,估计得几个小时

所以用python来写脚本,进行数据匹配

首先原始店铺文件是7个,一个文件里面有6.7w条数据,快递数据是2个,1个里面有22w条,匹配就通过快递单号进行

原始数据都全部转化成csv,方便操作

接下去就是操作思路

1,将店铺文件一行行进行循环,

2,每次去2个快递数据表格里面搜索,

3,如果找到,就把快递数据放到后面

4,如果没找到,就原数据写入

快递数据做了处理,提取单号做成一个list,然后在做一个dict,格式{单号: 对应原始数据},方便找到后进行提取原始数据

然后开始循环操作,实际执行下来,每1000次查询,需要耗费6秒左右时间

全部数据处理完毕需要30分钟

然后进行优化

将list改成set,其他不动,结果20秒完成!这个效率简直了!

这时就看出来了,基础的东西,有时候就决定了效率

 

posted @ 2019-09-20 10:59  darkspr  阅读(4782)  评论(0编辑  收藏  举报