摘要: 什么是网络爬虫: 通俗理解: 爬虫是一个模拟人类请求网站行为的程序,可以自动请求网页、并数据抓取下来,然后使用一定的规则提取有价值的数据。 通用爬虫和聚焦爬虫: 1.通用爬虫:通用爬虫是搜索引擎抓取系统(百度、谷歌、搜狗等)的重要组成部分,主要试讲互联网上的网页下载到本地,形成一个互联网内容的备份。 阅读全文
posted @ 2019-04-30 16:28 QQmini 阅读(191) 评论(0) 推荐(0)