第三天 爬虫基础
摘要:
一、爬虫原理1.互联网:由一堆网络设备把一台台计算机互联到一起称之为互联网2.互联网建立的目的:传递与共享数据3.上网的全过程 普通用户:打开浏览器---->往目标站点发送请求---->获取响应数据---->渲染到浏览器中 爬虫程序:模拟浏览器---->往目标站点发送请求---->获取响应数据---->提取有价值的数据---->持久化到数据中4.浏览器发送的请求 http协议的请求 客户端... 阅读全文
posted @ 2019-06-26 17:59 StickyFingers 阅读(118) 评论(0) 推荐(0)
浙公网安备 33010602011771号