文章分类 -  python爬虫

摘要:下载哔哩哔哩视频 一 寻找任意一个视频地址 例如这个: 拿出窗口中的链接:https://www.bilibili.com/video/av76609390,修改源代码中的url即可完成下载 #由于哔哩哔哩视频音频是分开的,所以下来下来的视频是两个,一个音频,一个视频,要视频和音频合成,可看另一偏博 阅读全文
posted @ 2022-07-15 16:14 7411 阅读(1231) 评论(0) 推荐(0)
摘要:分布式爬虫 一 介绍 原来scrapy的Scheduler维护的是本机的任务队列(存放Request对象及其回调函数等信息)+本机的去重队列(存放访问过的url地址) 所以实现分布式爬取的关键就是,找一台专门的主机上运行一个共享的队列比如Redis,然后重写Scrapy的Scheduler,让新的S 阅读全文
posted @ 2022-07-15 16:13 7411 阅读(11) 评论(0) 推荐(0)
摘要:Scrapy 一 介绍 Scrapy一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速、简单、可扩展的方式从网站中提取所需的数据。但目前Scrapy的用途十分广泛,可用于如数据挖掘、监测和自动化测试等领域,也可以应用在获取API所返回的数据(例如 Am 阅读全文
posted @ 2022-07-15 16:12 7411 阅读(37) 评论(0) 推荐(0)
摘要:Beautifulsoup4 ​ 一 介绍 Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.Beautiful Soup会帮你节省数小时甚至数天的工作时间.你可能在寻找 Beautiful S 阅读全文
posted @ 2022-07-15 16:10 7411 阅读(68) 评论(0) 推荐(0)
摘要:selenium 一 介绍 selenium最初是一个自动化测试工具,而爬虫中使用它主要是为了解决requests无法直接执行JavaScript代码的问题 selenium本质是通过驱动浏览器,完全模拟浏览器的操作,比如跳转、输入、点击、下拉等,来拿到网页渲染之后的结果,可支持多种浏览器 from 阅读全文
posted @ 2022-07-15 16:09 7411 阅读(36) 评论(0) 推荐(0)
摘要:requests 一 介绍 #介绍:使用requests可以模拟浏览器的请求,比起之前用到的urllib,requests模块的api更加便捷(本质就是封装了urllib3) #注意:requests库发送请求将网页内容下载下来以后,并不会执行js代码,这需要我们自己分析目标站点然后发起新的requ 阅读全文
posted @ 2022-07-15 16:08 7411 阅读(72) 评论(0) 推荐(0)
摘要:ISO-9959-1的问题 直接上干货 import re import requests new_url = "http://www.anquan.us/static/drops/papers-17213.html" res = requests.get(url=new_url).content. 阅读全文
posted @ 2020-04-03 21:02 7411 阅读(803) 评论(0) 推荐(0)
摘要:# -*- coding: utf-8 -*- """ Project: spider_project Creator: turing Create time: 2019-11-07 11:08 IDE: PyCharm Introduction:CryptUnprotectData """ imp 阅读全文
posted @ 2020-04-03 20:46 7411 阅读(1178) 评论(0) 推荐(0)
摘要:安装 $ pip install requests-html 只支持python3.6及以上 使用方法 构造一个访问python.org的GET请求,使用Requests: >>> from requests_html import HTMLSession >>> session = HTMLSes 阅读全文
posted @ 2020-01-15 10:52 7411 阅读(217) 评论(0) 推荐(0)
摘要:爬虫介绍 引入 之前在授课过程中,好多同学都问过我这样的一个问题:为什么要学习爬虫,学习爬虫能够为我们以后的发展带来那些好处?其实学习爬虫的原因和为我们以后发展带来的好处都是显而易见的,无论是从实际的应用还是从就业上。 我们都知道,当前我们所处的时代是大数据的时代,在大数据时代,要进行数据分析,首先 阅读全文
posted @ 2019-06-16 00:13 7411 阅读(124) 评论(0) 推荐(0)
摘要:处理乱码的一种方式 阅读全文
posted @ 2019-05-22 00:25 7411 阅读(110) 评论(0) 推荐(0)
摘要:爬虫是一种模拟浏览器对网站发起请求,获取数据的方法。简单的爬虫在抓取网站数据的时候,因为对网站访问过于频繁,给服务器造成过大的压力,容易使网站崩溃,因此网站维护者会通过一些手段避免爬虫的访问,以下是几种常见的反爬虫和反反爬虫策略: 关于网站动态加载的方法,还能一种反反爬虫的方法:找到其api的接口, 阅读全文
posted @ 2019-05-21 21:32 7411 阅读(2641) 评论(0) 推荐(0)
摘要:增量式爬虫 引言: 当我们在浏览相关网页的时候会发现,某些网站定时会在原有网页数据的基础上更新一批数据,例如某电影网站会实时更新一批最近热门的电影。小说网站会根据作者创作的进度实时更新最新的章节数据等等。那么,类似的情景,当我们在爬虫的过程中遇到时,我们是不是需要定时更新程序以便能爬取到网站中最近更 阅读全文
posted @ 2019-05-11 23:26 7411 阅读(112) 评论(0) 推荐(0)
摘要:redis分布式部署 1.scrapy框架是否可以自己实现分布式? - 不可以。原因有二。 其一:因为多台机器上部署的scrapy会各自拥有各自的调度器,这样就使得多台机器无法分配start_urls列表中的url。(多台机器无法共享同一个调度器) 其二:多台机器爬取到的数据无法通过同一个管道对数据 阅读全文
posted @ 2019-05-11 23:25 7411 阅读(286) 评论(0) 推荐(0)
摘要:引入 提问:如果想要通过爬虫程序去爬取”糗百“全站数据新闻数据的话,有几种实现方法? 方法一:基于Scrapy框架中的Spider的递归爬取进行实现(Request模块递归回调parse方法)。 方法二:基于CrawlSpider的自动爬取进行实现(更加简洁和高效)。 今日概要 CrawlSpide 阅读全文
posted @ 2019-05-11 23:24 7411 阅读(247) 评论(0) 推荐(0)
摘要:引入 在通过scrapy框架进行某些网站数据爬取的时候,往往会碰到页面动态数据加载的情况发生,如果直接使用scrapy对其url发请求,是绝对获取不到那部分动态加载出来的数据值。但是通过观察我们会发现,通过浏览器进行url请求发送则会加载出对应的动态加载出的数据。那么如果我们想要在scrapy也获取 阅读全文
posted @ 2019-05-11 23:22 7411 阅读(358) 评论(0) 推荐(0)
摘要:今日概要 递归爬取解析多页页面数据 scrapy核心组件工作流程 scrapy的post请求发送 今日详情 1.递归爬取解析多页页面数据 - 需求:将糗事百科所有页码的作者和段子内容数据进行爬取切持久化存储 - 需求分析:每一个页面对应一个url,则scrapy工程需要对每一个页码对应的url依次发 阅读全文
posted @ 2019-05-11 23:21 7411 阅读(163) 评论(0) 推荐(0)
摘要:今日概要 scrapy下载中间件 UA池 代理池 今日详情 一.下载中间件 先祭出框架图: 下载中间件(Downloader Middlewares) 位于scrapy引擎和下载器之间的一层组件。 - 作用: (1)引擎将请求传递给下载器过程中, 下载中间件可以对请求进行一系列处理。比如设置请求的 阅读全文
posted @ 2019-05-11 23:21 7411 阅读(296) 评论(0) 推荐(0)
摘要:今日概要 基于终端指令的持久化存储 基于管道的持久化存储 今日详情 1.基于终端指令的持久化存储 保证爬虫文件的parse方法中有可迭代类型对象(通常为列表or字典)的返回,该返回值可以通过终端指令的形式写入指定格式的文件中进行持久化操作。 执行输出指定格式进行存储:将爬取到的数据写入不同格式的文件 阅读全文
posted @ 2019-05-11 23:20 7411 阅读(130) 评论(0) 推荐(0)
摘要:今日概要 scrapy框架介绍 环境安装 基础使用 今日详情 一.什么是Scrapy? Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架,非常出名,非常强悍。所谓的框架就是一个已经被集成了各种功能(高性能异步下载,队列,分布式,解析,持久化等)的具有很强通用性的项目模板。对于框架的 阅读全文
posted @ 2019-05-11 23:19 7411 阅读(191) 评论(0) 推荐(0)