随笔分类 -  爬虫

摘要:一 介绍 原来scrapy的Scheduler维护的是本机的任务队列(存放Request对象及其回调函数等信息)+本机的去重队列(存放访问过的url地址) 所以实现分布式爬取的关键就是,找一台专门的主机上运行一个共享的队列比如Redis,然后重写Scrapy的Scheduler,让新的Schedul 阅读全文
posted @ 2021-02-01 21:23 我也想18岁 阅读(3307) 评论(0) 推荐(0)
摘要:一 介绍 Scrapy一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速、简单、可扩展的方式从网站中提取所需的数据。但目前Scrapy的用途十分广泛,可用于如数据挖掘、监测和自动化测试等领域,也可以应用在获取API所返回的数据(例如 Amazon As 阅读全文
posted @ 2021-02-01 21:20 我也想18岁 阅读(3327) 评论(0) 推荐(0)
摘要:一 简介 MongoDB是一款强大、灵活、且易于扩展的通用型数据库1、易用性 MongoDB是一个面向文档(document-oriented)的数据库,而不是关系型数据库。不采用关系型主要是为了获得更好得扩展性。当然还有一些其他好处,与关系数据库相比,面向文档的数据库不再有“行“(row)的概念取 阅读全文
posted @ 2021-02-01 21:18 我也想18岁 阅读(3561) 评论(0) 推荐(0)
摘要:通过selenium自动发博客 from selenium import webdriver import time bro=webdriver.Chrome(executable_path='./chromedriver.exe') bro.get('https://i.cnblogs.com/' 阅读全文
posted @ 2021-01-27 14:56 我也想18岁 阅读(3307) 评论(0) 推荐(0)
摘要:一 介绍 Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.Beautiful Soup会帮你节省数小时甚至数天的工作时间.你可能在寻找 Beautiful Soup3 的文档,Beautifu 阅读全文
posted @ 2021-01-24 22:02 我也想18岁 阅读(3542) 评论(0) 推荐(0)
摘要:一 介绍 #介绍:使用requests可以模拟浏览器的请求,比起之前用到的urllib,requests模块的api更加便捷(本质就是封装了urllib3) #注意:requests库发送请求将网页内容下载下来以后,并不会执行js代码,这需要我们自己分析目标站点然后发起新的request请求 #安装 阅读全文
posted @ 2021-01-23 23:50 我也想18岁 阅读(3286) 评论(0) 推荐(0)