会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
高汤
博客园
首页
新随笔
联系
订阅
管理
2020年7月30日
协程嵌套协程
摘要: import asyncio import functools # 第三层协程 async def test1(): print('我是test1') await asyncio.sleep(1) print('test1已经睡了1秒') await asyncio.sleep(3) print('
阅读全文
posted @ 2020-07-30 14:21 高汤
阅读(510)
评论(0)
推荐(0)
2020年7月16日
基础知识
摘要: QObject 功能作用 - 对象名称、属性 setObjectName # (唯一名称) 给一个Qt对象设置一个名称 一般这个名称是唯一的,当做对象的ID来使用 objectName() # 获取一个Qt对象的名称 setProperty(属性名称, 值) # 给一个Qt对象动态的添加一个属性与值
阅读全文
posted @ 2020-07-16 20:30 高汤
阅读(142)
评论(0)
推荐(0)
汉化包
摘要: http://www.chenyongning.com/pyqt5%e6%b1%89%e5%8c%96/
阅读全文
posted @ 2020-07-16 09:57 高汤
阅读(136)
评论(0)
推荐(0)
2020年7月15日
.ui转.py文件命令
摘要: # 直接命令: python -m PyQt5.uic.pyuic test.ui -o test.py # pycharm上添加扩展工具时的参数: -m PyQt5.uic.pyuic $FileName$ -o $FileNameWithoutExtension$.py
阅读全文
posted @ 2020-07-15 23:26 高汤
阅读(589)
评论(0)
推荐(0)
2020年7月13日
遇到问题
摘要: // 前端js操作csv文件插件用法 插件下载地址:https://github.com/okfn/csv.js/ $('#id_mac_file').change(function () { $('#id_mac_address').parent().next().text(''); $('inp
阅读全文
posted @ 2020-07-13 12:09 高汤
阅读(166)
评论(0)
推荐(0)
2020年6月26日
下载安装爬虫包
摘要: 下载爬虫相关包 下载二进制包: https://www.lfd.uci.edu/~gohlke/pythonlibs/ 下载lxml、Twisted、pywin32、Scrapy 安装: 第一步: pip install -i https://pypi.douban.com/simple lxml-
阅读全文
posted @ 2020-06-26 23:24 高汤
阅读(292)
评论(0)
推荐(0)
2020年6月21日
把起始URL放到Redis中去
摘要: 把起始URL放到redis中去 from scrapy_redis.spiders import RedisSpider # 继承RedisSpider class ChoutiSpider(RedisSpider): name = 'chouti' allowed_domains = ['chou
阅读全文
posted @ 2020-06-21 19:13 高汤
阅读(639)
评论(0)
推荐(0)
去重配置和调度器配置代码优先级
摘要: 去重的配置: DUPEFILTER_KEY = 'dupefilter:%(timestamp)s' DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter" 调度器配置: SCHEDULER = "scrapy_redis.schedul
阅读全文
posted @ 2020-06-21 19:12 高汤
阅读(362)
评论(0)
推荐(0)
爬虫流程
摘要: 整个爬虫流程 1、scrapy crawl chouti --nolog 2、找到 SCHEDULER = "scrapy_redis.scheduler.Scheduler" 配置并实例化调试器对象 - 执行Scheduler.from_crawler - 执行Scheduler.from_set
阅读全文
posted @ 2020-06-21 19:10 高汤
阅读(153)
评论(0)
推荐(0)
2020年6月14日
scrapy_redis组件url去重 (有部分自定义)
摘要: scrapy_redis组件去重掉url settings.py # 去重类 # DUPEFILTER_CLASS = 'scrapy_redis.dupefilter.RFPDupeFilter' scrapy_redis组件默认的自带的的类 DUPEFILTER_CLASS = 'xdb.dup
阅读全文
posted @ 2020-06-14 23:22 高汤
阅读(538)
评论(0)
推荐(0)
下一页
公告