返回顶部
扩大
缩小

Gaidy's

随笔分类 -  网络爬虫

正则表达式爬取猫眼电影
摘要:正则表达式爬取猫眼电影Top100 import requests import re,json from multiprocessing import Pool def get_one_page(url): response = requests.get(url) return response. 阅读全文

posted @ 2019-12-25 15:11 Gaidy 阅读(424) 评论(0) 推荐(0)

21天打造分布式爬虫-房天下全国658城市房源(十一)
摘要:项目:爬取房天下网站全国所有城市的新房和二手房信息 网站url分析 1.获取所有城市url http://www.fang.com/SoufunFamily.htm 例如:http://cq.fang.com/ 2.新房url http://newhouse.sh.fang.com/house/s/ 阅读全文

posted @ 2019-12-25 15:08 Gaidy 阅读(302) 评论(0) 推荐(0)

21天打造分布式爬虫-简书整站爬取(十)
摘要:10.1.简书整站爬虫 创建项目 scrapy startproject jianshu scrapy genspider -t crawl jianshu_spider "jianshu.com" jianshu_spider.py # -*- coding: utf-8 -*- import s 阅读全文

posted @ 2019-12-25 15:06 Gaidy 阅读(311) 评论(0) 推荐(0)

21天打造分布式爬虫-下载汽车之家图片(九)
摘要:9.1.下载汽车之家图片 新建项目 scrapy startproject bmx scrapy genspider bmx5 "car.autohome.com.cn" bmx5.py # -*- coding: utf-8 -*- import scrapy from bmx.items imp 阅读全文

posted @ 2019-12-25 15:03 Gaidy 阅读(229) 评论(0) 推荐(0)

21天打造分布式爬虫-Crawl类爬取小程序社区(八)
摘要:8.1.Crawl的用法实战 新建项目 scrapy startproject wxapp scrapy genspider -t crawl wxapp_spider "wxapp-union.com" wxapp_spider.py # -*- coding: utf-8 -*- import 阅读全文

posted @ 2019-12-25 14:43 Gaidy 阅读(276) 评论(0) 推荐(0)

21天打造分布式爬虫-Spider类爬取糗事百科(七)
摘要:7.1.糗事百科 安装 pip install pypiwin32 pip install Twisted-18.7.0-cp36-cp36m-win_amd64.whl pip install scrapy 创建和运行项目 scrapy startproject qsbk #创建项目 scrapy 阅读全文

posted @ 2019-12-25 14:39 Gaidy 阅读(173) 评论(0) 推荐(0)

21天打造分布式爬虫-Selenium爬取拉钩职位信息(六)
摘要:6.1.爬取第一页的职位信息 第一页职位信息 from selenium import webdriver from lxml import etree import re import time class LagouSpider(object): def __init__(self): self 阅读全文

posted @ 2019-12-25 14:26 Gaidy 阅读(245) 评论(0) 推荐(0)

21天打造分布式爬虫-多线程下载表情包(五)
摘要:5.1.threading模块 简单使用 import threading,time def coding(): for x in range(3): print('正在写代码%s'%x) time.sleep(2) def drawing(): for x in range(3): print(' 阅读全文

posted @ 2019-12-25 14:16 Gaidy 阅读(220) 评论(0) 推荐(0)

21天打造分布式爬虫-中国天气网和古诗文网实战(四)
摘要:4.1.中国天气网 网址:http://www.weather.com.cn/textFC/hb.shtml 解析:BeautifulSoup4 爬取所有城市的最低天气 import requests from bs4 import BeautifulSoup import html5lib def 阅读全文

posted @ 2019-12-25 14:05 Gaidy 阅读(313) 评论(0) 推荐(0)

21天打造分布式爬虫-豆瓣电影和电影天堂实战(三)
摘要:3.1.豆瓣电影 使用lxml import requests from lxml import etree headers = { 'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, l 阅读全文

posted @ 2019-12-25 13:52 Gaidy 阅读(211) 评论(0) 推荐(0)

21天打造分布式爬虫-requests库(二)
摘要:2.1.get请求 简单使用 import requests response = requests.get("https://www.baidu.com/") #text返回的是unicode的字符串,可能会出现乱码情况 # print(response.text) #content返回的是字节, 阅读全文

posted @ 2019-12-25 13:08 Gaidy 阅读(267) 评论(0) 推荐(0)

21天打造分布式爬虫-urllib库(一)
摘要:1.1.urlopen函数的用法 #encoding:utf-8 from urllib import request res = request.urlopen("https://www.cnblogs.com/") print(res.readlines()) #urlopen的参数 #def 阅读全文

posted @ 2019-12-25 11:51 Gaidy 阅读(224) 评论(0) 推荐(0)

python爬虫人门(十)Scrapy框架之Downloader Middlewares
摘要:设置下载中间件(Downloader Middlewares) 下载中间件是处于引擎(crawler.engine)和下载器(crawler.engine.download())之间的一层组件,可以有多个下载中间件被加载运行。 当引擎传递请求给下载器的过程中,下载中间件可以对请求进行处理 (例如增加 阅读全文

posted @ 2019-12-25 11:40 Gaidy 阅读(286) 评论(0) 推荐(0)

python爬虫入门(九)Scrapy框架之数据库保存
摘要:豆瓣电影TOP 250爬取-->>>数据保存到MongoDB 豆瓣电影TOP 250网址 要求: 1.爬取豆瓣top 250电影名字、演员列表、评分和简介 2.设置随机UserAgent和Proxy 3.爬取到的数据保存到MongoDB数据库 items.py # -*- coding: utf-8 阅读全文

posted @ 2019-12-25 11:37 Gaidy 阅读(356) 评论(0) 推荐(0)

python爬虫入门(八)Scrapy框架之CrawlSpider类
摘要:CrawlSpider类 通过下面的命令可以快速创建 CrawlSpider模板 的代码: scrapy genspider -t crawl tencent tencent.com CrawSpider是Spider的派生类,Spider类的设计原则是只爬取start_url列表中的网页,而Cra 阅读全文

posted @ 2019-12-25 11:34 Gaidy 阅读(320) 评论(0) 推荐(0)

python爬虫入门(七)Scrapy框架之Spider类
摘要:Spider类 Spider类定义了如何爬取某个(或某些)网站。包括了爬取的动作(例如:是否跟进链接)以及如何从网页的内容中提取结构化数据(爬取item)。 换句话说,Spider就是您定义爬取的动作及分析某个网页(或者是有些网页)的地方。 class scrapy.Spider是最基本的类,所有编 阅读全文

posted @ 2019-12-25 11:29 Gaidy 阅读(860) 评论(0) 推荐(0)

python爬虫入门(六) Scrapy框架之原理介绍
摘要:Scrapy框架 Scrapy简介 Scrapy是用纯Python实现一个为了爬取网站数据、提取结构性数据而编写的应用框架,用途非常广泛。 框架的力量,用户只需要定制开发几个模块就可以轻松的实现一个爬虫,用来抓取网页内容以及各种图片,非常之方便。 Scrapy 使用了 Twisted['twɪstɪ 阅读全文

posted @ 2019-12-25 11:27 Gaidy 阅读(300) 评论(0) 推荐(0)

python爬虫入门(五)Selenium模拟用户操作
摘要:爬虫(Spider),反爬虫(Anti-Spider),反反爬虫(Anti-Anti-Spider) 之间恢宏壮阔的斗争... 小莫想要某站上所有的电影,写了标准的爬虫(基于HttpClient库),不断地遍历某站的电影列表页面,根据 Html 分析电影名字存进自己的数据库。 这个站点的运维小黎发现 阅读全文

posted @ 2019-12-25 11:24 Gaidy 阅读(906) 评论(0) 推荐(0)

python爬虫入门(四)利用多线程爬虫
摘要:多线程爬虫 先回顾前面学过的一些知识 1.一个cpu一次只能执行一个任务,多个cpu同时可以执行多个任务2.一个cpu一次只能执行一个进程,其它进程处于非运行状态3.进程里包含的执行单元叫线程,一个进程可以包含多个线程4.一个进程的内存空间是共享的,每个进程里的线程都可以使用这个共享空间5.一个线程 阅读全文

posted @ 2019-12-25 11:22 Gaidy 阅读(543) 评论(0) 推荐(0)

python爬虫入门(三)XPATH和BeautifulSoup4
摘要:XML和XPATH 用正则处理HTML文档很麻烦,我们可以先将 HTML文件 转换成 XML文档,然后用 XPath 查找 HTML 节点或元素。 XML 指可扩展标记语言(EXtensible Markup Language) XML 是一种标记语言,很类似 HTML XML 的设计宗旨是传输数据 阅读全文

posted @ 2019-12-25 11:20 Gaidy 阅读(484) 评论(0) 推荐(0)

导航