会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
~(',D)=I一<
博客园
|
首页
|
新随笔
|
新文章
|
联系
|
订阅
|
管理
02 2019 档案
requests 爬虫
摘要:爬虫 常用爬虫爬取网页,但如果一直爬取会被ban掉,因此需要对爬虫进行一些改进反反爬 使用requests和beautifulsoup4构建爬虫,1.随机user agent;2.ip代理;4.cookie;3.爬取间隔 随机user agent requests的user agent通过heade
阅读全文
posted @
2019-02-23 14:59
星不予
阅读(319)
评论(0)
推荐(0)
公告