摘要: 爬虫 定义: 什么是爬虫? 是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。 爬虫的分类: 通用爬虫:爬行对象从一些种子 URL 扩充到整个 Web,主要为门户站点搜索引擎和大型 Web 服务提供商采集数据。 聚焦爬虫:是指选择性地爬行那些与预先定义好的主题相关页面的网络爬虫。 增量式爬虫 阅读全文
posted @ 2020-02-28 20:32 问题在哪里 阅读(364) 评论(0) 推荐(0)