摘要: 爬虫基础 什么是爬虫? 爬虫是通过程序模拟浏览器上网,从网上获取数据的过程. 爬虫的分类: 通用爬虫:爬取一整个页面的数据. 聚焦爬虫:爬取页面中指定的局部数据 增量式爬虫:检测网站中数据更新的情况,爬取的是网站中最新更新出来的数据. 什么是反爬机制? 网站制作时设置的一系列阻止爬虫程序进行的阻碍, 阅读全文
posted @ 2019-06-11 21:39 想扣篮的小矮子 阅读(195) 评论(0) 推荐(0)