会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
哈哈哈滴滴
找到自己的方法才能更快的进步
博客园
首页
新随笔
联系
订阅
管理
2019年7月12日
第一个成功的Python爬虫:加请求头多线程爬取小说并简单清理数据保存当地文件夹
摘要: 用到BeautifulSoup与threading库,来根据网上源码规律找到目标数据的url爬取! 数据清理的时候,本来想以txt_file_all.text来处理,发现里面的空格转换不了换行,只能将txt_file_all所有数据进行替换,虽然麻烦一些但也能达到自己的目的!
阅读全文
posted @ 2019-07-12 21:11 哈哈哈滴滴
阅读(830)
评论(0)
推荐(0)
公告