文章分类 -  爬虫

selenium在scrapy中的应用
摘要:1 1 引入 在通过scrapy框架进行某些网站数据爬取的时候,往往会碰到页面动态数据加载的情况发生,如果直接使用scrapy对其url发请求,是绝对获取不到那部分动态加载出来的数据值。但是通过观察我们会发现,通过浏览器进行url请求发送则会加载出对应的动态加载出的数据。那么如果我们想要在scrap 阅读全文

posted @ 2019-01-15 18:35 IT东 阅读(146) 评论(0) 推荐(0)

UA池代理池scrapy下载中间件
摘要:今日概要 scrapy下载中间件 UA池 代理池 今日详情 一.下载中间件 下载中间件(Downloader Middlewares) 位于scrapy引擎和下载器之间的一层组件。 - 作用: (1)引擎将请求传递给下载器过程中, 下载中间件可以对请求进行一系列处理。比如设置请求的 User-Age 阅读全文

posted @ 2019-01-14 16:57 IT东 阅读(133) 评论(0) 推荐(0)

xpath使用
摘要:一、选取节点常用的路劲表达式: 二、谓语 谓语被嵌在方括号内,用来查找某个特定的节点或包含某个制定的值的节点 实例: 三、通配符 Xpath通过通配符来选取未知的XML元素 四、取多个路径 使用“|”运算符可以选取多个路径 五、Xpath轴 轴可以定义相对于当前节点的节点集 六、功能函数 使用功能函 阅读全文

posted @ 2019-01-13 13:20 IT东 阅读(72) 评论(0) 推荐(0)

爬虫之解决验证码和cook问题
摘要:1.先写函数 #爬取古诗文网 阅读全文

posted @ 2019-01-09 17:15 IT东 阅读(197) 评论(0) 推荐(0)

request模块
摘要:Requests是用python语言基于urllib编写的,采用的是Apache2 Licensed开源协议的HTTP库如果你看过上篇文章关于urllib库的使用,你会发现,其实urllib还是非常不方便的,而Requests它会比urllib更加方便,可以节约我们大量的工作。(用了requests 阅读全文

posted @ 2019-01-08 13:54 IT东 阅读(304) 评论(0) 推荐(0)

urllib 模块
摘要:urllib 模块是一个高级的 web 交流库,其核心功能就是模仿web浏览器等客户端,去请求相应的资源,并返回一个类文件对象。urllib 支持各种 web 协议,例如:HTTP、FTP、Gopher;同时也支持对本地文件进行访问。但一般而言多用来进行爬虫的编写,而下面的内容也是围绕着如何使用 u 阅读全文

posted @ 2019-01-08 13:52 IT东 阅读(119) 评论(0) 推荐(0)

Python网络爬虫之Scrapy框架(CrawlSpider)
摘要:引入 提问:如果想要通过爬虫程序去爬取”糗百“全站数据新闻数据的话,有几种实现方法? 方法一:基于Scrapy框架中的Spider的递归爬取进行实现(Request模块递归回调parse方法)。 方法二:基于CrawlSpider的自动爬取进行实现(更加简洁和高效)。 今日概要 CrawlSpide 阅读全文

posted @ 2019-01-08 13:06 IT东 阅读(108) 评论(0) 推荐(0)

Python网络爬虫第二弹《http和https协议》
摘要:一.HTTP协议 1.官方概念: HTTP协议是Hyper Text Transfer Protocol(超文本传输协议)的缩写,是用于从万维网(WWW:World Wide Web )服务器传输超文本到本地浏览器的传送协议。(虽然童鞋们将这条概念都看烂了,但是也没办法,毕竟这就是HTTP的权威官方 阅读全文

posted @ 2019-01-08 13:02 IT东 阅读(114) 评论(0) 推荐(0)

Python网络爬虫之图片懒加载技术、selenium和PhantomJS
摘要:引入 今日概要 图片懒加载 selenium phantomJs 谷歌无头浏览器 知识点回顾 验证码处理流程 今日详情 动态数据加载处理 一.图片懒加载 什么是图片懒加载? 案例分析:抓取站长素材http://sc.chinaz.com/中的图片数据 #!/usr/bin/env python # 阅读全文

posted @ 2019-01-08 12:59 IT东 阅读(98) 评论(0) 推荐(0)

Python网络爬虫之requests模块(2)
摘要:今日内容 session处理cookie proxies参数设置请求代理ip 基于线程池的数据爬取 知识点回顾 xpath的解析流程 bs4的解析流程 常用xpath表达式 常用bs4解析方法 引入 有些时候,我们在使用爬虫程序去爬取一些用户相关信息的数据(爬取张三“人人网”个人主页数据)时,如果使 阅读全文

posted @ 2019-01-08 12:56 IT东 阅读(119) 评论(0) 推荐(0)

Python网络爬虫之requests模块(1)
摘要:引入 Requests 唯一的一个非转基因的 Python HTTP 库,人类可以安全享用。 警告:非专业使用其他 HTTP 库会导致危险的副作用,包括:安全缺陷症、冗余代码症、重新发明轮子症、啃文档症、抑郁、头疼、甚至死亡。 今日概要 基于requests的get请求 基于requests模块的p 阅读全文

posted @ 2019-01-08 12:55 IT东 阅读(117) 评论(0) 推荐(0)

Python网络爬虫第一弹《Python网络爬虫相关基础概念》
摘要:引入 之前在授课过程中,好多同学都问过我这样的一个问题:为什么要学习爬虫,学习爬虫能够为我们以后的发展带来那些好处?其实学习爬虫的原因和为我们以后发展带来的好处都是显而易见的,无论是从实际的应用还是从就业上。 我们都知道,当前我们所处的时代是大数据的时代,在大数据时代,要进行数据分析,首先要有数据源 阅读全文

posted @ 2019-01-08 12:53 IT东 阅读(57) 评论(0) 推荐(0)

Python网络爬虫之三种数据解析方式
摘要:回顾requests实现数据爬取的流程 其实,在上述流程中还需要较为重要的一步,就是在持久化存储之前需要进行指定数据解析。因为大多数情况下的需求,我们都会指定去使用聚焦爬虫,也就是爬取页面中指定部分的数据值,而不是整个页面的数据。因此,本次课程中会给大家详细介绍讲解三种聚焦爬虫中的数据解析方式。至此 阅读全文

posted @ 2019-01-08 12:52 IT东 阅读(193) 评论(0) 推荐(0)

导航