摘要:
一、爬虫介绍 (一)爬虫的分类 1、通用爬虫:通用爬虫是搜索引擎(Baidu、Google、Yahoo等)“抓取系统”的重要组成部分。主要目的是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份。再对这些网页做相关处理(提取关键字、去掉广告),最后提供一个用户检索接口。 搜索引擎如何抓取互联网 阅读全文
posted @ 2019-03-19 21:18
随风飘-挨刀刀
阅读(753)
评论(0)
推荐(0)
浙公网安备 33010602011771号