摘要: https://images.weserv.nl/?url= 阅读全文
posted @ 2020-02-12 21:21 myrj 阅读(111) 评论(0) 推荐(0)
摘要: Python encode()encode() 方法以 encoding 指定的编码格式编码字符串。errors参数可以指定不同的错误处理方案。写法:str.encode(encoding='UTF-8',errors='strict')参数encoding -- 要使用的编码,如"UTF-8"。e 阅读全文
posted @ 2020-02-11 21:04 myrj 阅读(218) 评论(0) 推荐(0)
摘要: Python startswith()方法Python startswith() 方法用于检查字符串是否是以指定子字符串开头,如果是则返回 True,否则返回 False。如果参数 beg 和 end 指定值,则在指定范围内检查 语法:str.startswith(str, beg=0,end=le 阅读全文
posted @ 2020-02-11 20:37 myrj 阅读(235) 评论(0) 推荐(0)
摘要: 自定义file_path()函数,即可以原有图像文件名为名来保存,并分类保存 def file_path(self, request, response=None, info=None): image_guid = request.url.split('/')[-2]+"/"+request.url 阅读全文
posted @ 2020-02-10 19:51 myrj 阅读(378) 评论(0) 推荐(0)
摘要: 近来安装python scrapy经常忘了添加到path,需要时增加了但需要重启才能起作用,用下面的方法马上能生效: 1修改path:右击“计算机”--高级--环境变量--path 2。打开“任务管理器”,结束进程"explorer.exe",再打开.方法:在任务管理器进程中找到“explorer. 阅读全文
posted @ 2020-02-08 20:01 myrj 阅读(1493) 评论(0) 推荐(0)
摘要: 运行scrapy时出错这个错误:Max retries exceeded with url解决方法: img1=requests.get(url=aa,headers=header1,timeout=5,verify=False)爬虫能运行了,但还是报错,但不影响使用 阅读全文
posted @ 2020-02-08 19:54 myrj 阅读(605) 评论(0) 推荐(0)
摘要: '''使用walk方法递归遍历目录文件,walk方法会返回一个三元组,分别是root、dirs和files。 其中root是当前正在遍历的目录路径;dirs是一个列表,包含当前正在遍历的目录下所有的子目录名称,不包含该目录下的文件; files也是一个列表,包含当前正在遍历的目录下所有的文件,但不包 阅读全文
posted @ 2020-02-08 19:47 myrj 阅读(7748) 评论(0) 推荐(0)
摘要: https://tools.zzzmode.com/mytools/charles/ https://www.charlesproxy.com/download/ 阅读全文
posted @ 2020-02-07 06:48 myrj 阅读(103) 评论(0) 推荐(0)
摘要: 1.建立爬虫项目(结果形成与名称相同的文件夹) scrapy startproject <爬虫项目名称> (下面的所有操作都进入下一级文件进行操作) 2建立一个爬虫 scrapy genspider [- t 模板名称] <爬虫名称> < 爬虫爬取的域名> 3.运行一个爬虫scrapy craw < 阅读全文
posted @ 2020-02-07 06:30 myrj 阅读(98) 评论(0) 推荐(0)
摘要: 在PY文件中: from scrapy.selector import Selectorfrom scrapy.http import HtmlResponse url="https://m.mm131.net/" r=requests.get(url) r.encoding='gbk' #根据情况 阅读全文
posted @ 2020-02-06 12:36 myrj 阅读(191) 评论(0) 推荐(0)