摘要: from sqlalchemy import DECIMAL, Index, String, Date, Integer, Text, CHAR, SmallInteger, Float, Time, case, and_, extract, Boolean, Enum, TypeDecorator 阅读全文
posted @ 2024-05-25 23:09 meizhengchao 阅读(54) 评论(0) 推荐(0)
摘要: #查看限制结果 ulimit -a # 修改配置 # 删除最后一行 echo -e "# add_config" | sudo tee -a /etc/security/limits.conf # 加上文本 echo -e "\n" | sudo tee -a /etc/security/limit 阅读全文
posted @ 2024-05-22 22:43 meizhengchao 阅读(374) 评论(0) 推荐(0)
摘要: 报错的代码在vnpy_ctp/gateway/ctp_gateway.py path: Path = get_folder_path(self.gateway_name.lower()) self.createFtdcTraderApi((str(path) + "\\Td").encode("GB 阅读全文
posted @ 2024-05-22 13:03 meizhengchao 阅读(281) 评论(0) 推荐(0)
摘要: ## dash 构建多页面应用一种方案 本方案对[dash官网多页面案例](https://dash.plotly.com/urls)使用[`dash_bootstrap_components`案例](https://dash-bootstrap-components.opensource.facu 阅读全文
posted @ 2023-07-17 13:22 meizhengchao 阅读(860) 评论(0) 推荐(0)
摘要: ## plotly坐标轴截断混合设置且指定设置截断时间的时候需要注意先后顺序 - 大范围的时间要在小范围的时间前设置,比如日内时间的截断要设置在日期截断的后面 - 同范围的规则截断要在指定截断前设置,对日期的截断,规则系截断最好在指定截断前设置,六日截断规则在指定日期截断前 以上两条为测试出来的规律 阅读全文
posted @ 2023-05-08 21:55 meizhengchao 阅读(640) 评论(0) 推荐(0)
摘要: """ 压缩指定文件夹 排除指定格式的文件 """ import zipfile from pathlib import Path path = './aaa.zip' # 压缩文件路径 path = Path(path) xya_file = Path('./test') # 需压缩文件夹 f = 阅读全文
posted @ 2023-02-16 23:46 meizhengchao 阅读(127) 评论(0) 推荐(0)
摘要: 1. 函数递归 xya_file = Path('./test') def get_file_list(path:Path,data = []): for i in path.glob('*.*'): if i.is_dir(): data.extend(file_list(path=i,data= 阅读全文
posted @ 2023-02-16 23:35 meizhengchao 阅读(681) 评论(0) 推荐(0)
摘要: PyQt5 创建下拉复选框 总体目录结构 要先自定义下拉复选框类 参考:自定义实现 PyQt5 下拉复选框 ComboCheckBox # 下拉复选框测试/combocheckbox.py from PyQt5.QtWidgets import QComboBox, QLineEdit, QList 阅读全文
posted @ 2023-02-16 14:11 meizhengchao 阅读(1069) 评论(0) 推荐(0)
摘要: class FctpItem(scrapy.Item): # define the fields for your item here like: image_urls = scrapy.Field() images = scrapy.Field() from scrapy.pipelines.im 阅读全文
posted @ 2023-02-12 15:59 meizhengchao 阅读(29) 评论(0) 推荐(0)
摘要: 看小说消磨时间,但是广告太多了,且大多都是不健康的广告, 本着无聊练手的想法写了个小说爬虫,可以爬取小说并按小说名章节目录存储 网站是众多盗版网站中的一个 爬取效果如下 # xs_spider\xs_spider\spiders\sx_spider_01.py import scrapy from 阅读全文
posted @ 2023-02-02 14:46 meizhengchao 阅读(1078) 评论(0) 推荐(0)