摘要: 01-爬虫介绍 1. 什么是爬虫 网络爬虫是一种按照一定的规则,自动地抓网络信息的程序或者脚本。 2. 爬虫分类 1- 通用爬虫: 通用爬虫是搜索引擎(Baidu、Google、Yahoo等)“抓取系统”的重要组成部分。主要目的是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份。简单来讲就是 阅读全文
posted @ 2019-07-29 10:42 niuxiang 阅读(216) 评论(0) 推荐(0)