随笔分类 - Python爬虫基础
摘要:scrapy:强大的爬虫框架 scrapyd:通过命令启动、终止操作爬虫 scrapydweb:页面可视化调度爬虫 scrapydAPI:集成api接口调度爬虫,可上github的scrapyd-api项目,和后端框架配合使用
阅读全文
摘要:一、介绍 原来scrapy的Scheduler维护的是本机的任务队列(存放Request对象及其回调函数等信息)+本机的去重队列(存放访问过的url地址) 所以实现分布式爬取的关键就是,找一台专门的主机上运行一个共享的队列比如Redis,然后重写Scrapy的Scheduler,让新的Schedul
阅读全文
摘要:一、介绍 Scrapy一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速、简单、可扩展的方式从网站中提取所需的数据。但目前Scrapy的用途十分广泛,可用于如数据挖掘、监测和自动化测试等领域,也可以应用在获取API所返回的数据(例如 Amazon As
阅读全文
摘要:一、介绍 selenium最初是一个自动化测试工具,而爬虫中使用它主要是为了解决requests无法直接执行JavaScript代码的问题 selenium本质是通过驱动浏览器,完全模拟浏览器的操作,比如跳转、输入、点击、下拉等,来拿到网页渲染之后的结果,可支持多种浏览器 from selenium
阅读全文
摘要:1、https://www.autohome.com.cn/news/1/#liststart 检查代码 2、爬取代码 #爬取的地址 # https://www.autohome.com.cn/news/1/#liststart from bs4 import BeautifulSoup impor
阅读全文
摘要:一、介绍 Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.Beautiful Soup会帮你节省数小时甚至数天的工作时间.你可能在寻找 Beautiful Soup3 的文档,Beautifu
阅读全文
摘要:一、介绍 #介绍:使用requests可以模拟浏览器的请求,比起之前用到的urllib,requests模块的api更加便捷(本质就是封装了urllib3) #注意:requests库发送请求将网页内容下载下来以后,并不会执行js代码,这需要我们自己分析目标站点然后发起新的request请求 #安装
阅读全文
摘要:1、请求Headers里 URL请求地址,分析得出加载视频个数 1625830,1625746,等等为加载更多视频过滤条件 2、去除后缀,拿原始链接可以请求数据 分析得知start=0 为第一个视频 3、查看源代码,下面为真实数据请求地址 4、代码 # 获取视频 import re res = re
阅读全文
摘要:一、爬虫介绍: -本质, -就是想网站发送http请求,拿回一些页面/json格式数据(request) -处理数据,解析出有用的东西(re,bs4) -存储(mysql,文件,cvs,redis,MongoDB,es) -分析 -cookie池和代理池 -爬视频 -正向代理和反向代理 (正向代理-
阅读全文

浙公网安备 33010602011771号