.Tang

  博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理

随笔分类 -  scrapy

摘要:与下载图片类似: 1.item中需要有固定的字段 file_urls = scrapy.Field() files = scrapy.Field() 2.获取到文件的url,通过item["file_urls"]传送到 pipelines def parse_item(self, response) 阅读全文
posted @ 2021-03-31 10:53 .Tang 阅读(261) 评论(0) 推荐(0)

摘要:ptt = r"http[s]*://[a-zA-Z0-9-./]+(?:jpg|jpeg|png)" 先是爬取到 图片url -> yeild url到piplines中 定义图片下载的专属piplines,类中的3个函数名固定的,是从写方法,注意图片命名 class DownloadImages 阅读全文
posted @ 2021-03-29 17:31 .Tang 阅读(197) 评论(0) 推荐(0)

摘要:1.创建一个scrapy项目 scrapy startproject SpiderAnything 2.生成一个爬虫 itcash爬虫名字, itcash.cn爬虫范围 scrapy genspider tb 'taobao.com' # 启动爬虫 or 创建py启动文件 ps:windows可通过 阅读全文
posted @ 2021-03-29 15:17 .Tang 阅读(119) 评论(0) 推荐(0)

摘要:CrawlSpider 阅读全文
posted @ 2019-05-10 16:36 .Tang 阅读(122) 评论(0) 推荐(0)

摘要:爬去当当书籍信息 多台机器同时爬取,共用一个redis记录 scrapy_redis 带爬取的request对象储存在redis中,每台机器读取request对象并删除记录,经行爬取。实现分布式爬虫 阅读全文
posted @ 2019-05-10 16:27 .Tang 阅读(132) 评论(0) 推荐(0)

摘要:# -*- coding: utf-8 -*- import scrapy import urllib import json from copy import deepcopy class JdSpider(scrapy.Spider): name = 'jd' allowed_domains = ['jd.com', 'p.3.cn'] start_urls ... 阅读全文
posted @ 2019-04-28 22:26 .Tang 阅读(326) 评论(0) 推荐(0)

摘要:scrapy_redis的大概思路:将爬取的url通过 hashlin.sha1生成唯一的指纹,持久化存入redis,之后的url判断是否已经存在,达到去重的效果 下载scrapy-redis settings 阅读全文
posted @ 2019-04-28 16:08 .Tang 阅读(255) 评论(0) 推荐(0)

摘要:xpath 响应的同类数据但是格式不同,比如 此时取文本可以这样取 响应的同类数据但是格式不同,比如 完善url 阅读全文
posted @ 2019-04-28 14:01 .Tang 阅读(228) 评论(0) 推荐(0)

摘要:1.scrapy中间件 下载中间件Downloader Middlewares 下载器中间件处理请求与响应,对应两个方法 process_request(self, request, spider) 每个request通过下载器中间件时,该方法被调用 process_response(self, r 阅读全文
posted @ 2019-04-27 19:01 .Tang 阅读(598) 评论(0) 推荐(0)

摘要:两种方法模拟登陆 1.直接携带cookie 2.找到发送post请求的url地址,带上信息,发送请求 。 scrapy.FormRequest 阅读全文
posted @ 2019-04-27 17:34 .Tang 阅读(339) 评论(0) 推荐(0)

摘要:crawlspider提取url 创建一个crawlspider爬虫 scrapy genspider --t crawl baidu baidu.com py脚本启动多个spider from scrapy.utils.project import get_project_settings fro 阅读全文
posted @ 2019-04-27 14:40 .Tang 阅读(115) 评论(0) 推荐(0)

摘要:a 阅读全文
posted @ 2019-04-11 17:33 .Tang 阅读(148) 评论(0) 推荐(0)

摘要:进入scrapy shell交互终端 scrapy shell url settings配置文件 可以通过 spider对象调用 阅读全文
posted @ 2019-04-11 17:05 .Tang 阅读(283) 评论(0) 推荐(0)

摘要:items定义字段名字 当怕爬取到数据时 pipelines储存进mongodb, 需将数据转换成dict 阅读全文
posted @ 2019-04-10 18:34 .Tang 阅读(167) 评论(0) 推荐(0)

摘要:# -*- coding: utf-8 -*- import scrapy class HrSpider(scrapy.Spider): name = 'hr' allowed_domains = ['tencent.com'] start_urls = ['https://hr.tencent.com/position.php'] def parse(... 阅读全文
posted @ 2019-04-10 17:57 .Tang 阅读(557) 评论(0) 推荐(0)

摘要:settings 阅读全文
posted @ 2019-04-10 15:50 .Tang 阅读(130) 评论(0) 推荐(0)

摘要:scrapy中多个pipeline作用: 一个项目可能需要爬取多个网站,根据每个网站的数据量(处理方式)不同,可创建多个管道 pipeline pipeline的方法 mysql mongodb 阅读全文
posted @ 2019-04-10 15:28 .Tang 阅读(277) 评论(0) 推荐(0)

摘要:scrapy中间件 下载中间件Downloader Middlewares和开发代理中间件 1.创建一个scrapy项目 scrapy startproject SpiderAnything 2.生成一个爬虫 itcash爬虫名字, itcash.cn爬虫范围 scrapy genspider it 阅读全文
posted @ 2019-04-10 15:18 .Tang 阅读(207) 评论(0) 推荐(0)