摘要: 常常在下载网络素材时有很多的重复文件乱七八糟的,于是想实现一个去重的操作。 【阅读全文】 主要实现思路就是遍历出某个文件夹包括其子文件夹下面的所有文件,最后,将所有文件通过MD5函数的对比筛选出来,最后将重复的文件移除。 用到的第三方库都比较的常见,其中只有hashlib是用来对比文件的不是很常见。 阅读全文
posted @ 2022-02-18 20:27 Python集中营 阅读(252) 评论(0) 推荐(0) 编辑