摘要: · 爬虫简介 爬虫就是通过编写程序模拟浏览器上网,然后让其去互联网上抓取数据的过程 爬虫分类 1.通用爬虫:通用爬虫是搜索引擎(Baidu、Google、Yahoo等)“抓取系统”的重要组成部分。主要目的是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份。 简单来讲就是尽可能的;把互联网上的 阅读全文
posted @ 2018-12-10 20:51 吉喆嚞吉 阅读(160) 评论(0) 推荐(0) 编辑