上一页 1 2 3 4 5 6 7 8 9 10 ··· 48 下一页
摘要: 一、宝塔面板 安装参考:Linux里的“宝塔”,真正的宝塔!详细教程 二、青龙面板 1.拉去镜像 docker pull whyour/qinglong:latest 2.把镜像拉下来后,我们再执行: docker run -dit \ -v $PWD/ql/config:/ql/config \ 阅读全文
posted @ 2022-03-15 15:19 阿布_alone 阅读(135) 评论(0) 推荐(0) 编辑
摘要: 1 信号的意义 在linux系统中信号是与进程通信的一种手段。假设没有信号,linux中的进程一旦运行起来将不再受控,这种局面对于进程的管理来说是一种灾难。kill、ctrl+c等操作本质上就是我们向linux发出的信号,进程接收到信号后根据相应的策略做出反馈。 2 信号的来源 A) 通过终端(组合 阅读全文
posted @ 2022-03-10 23:54 阿布_alone 阅读(1530) 评论(0) 推荐(0) 编辑
摘要: 代码: import signal import time """ Python捕捉中断,我们编写程序有时候会用到死循环,在这种情况下我们可以通过Ctrl+C来进行终止,普通程序可以,但是 有时候我们在程序中会打开很多资源,比如文件句柄,网络连接等,我们希望捕获中断然后处理一下这些资源对其进行释放 阅读全文
posted @ 2022-03-10 23:47 阿布_alone 阅读(547) 评论(0) 推荐(0) 编辑
摘要: 选项 作用: -c cmd 在命令行直接执行python代码。如python -c 'print "hello world"'。 -d 脚本编译后从解释器产生调试信息。同PYTHONDEBUG=1。 -E 忽略环境变量。 -h 显示python命令行选项帮助信息。 -i 脚本执行后马上进入交互命令行 阅读全文
posted @ 2022-03-10 23:23 阿布_alone 阅读(338) 评论(0) 推荐(0) 编辑
摘要: 1、问题描述 在Python中使用print打印hello world时,终端不显示 def hello(): print("hello world!") 2、原因 因为标准输入输出stdin/stdout有缓冲区,所以使用print不能立即打印出来 3、解决方法 1)刷新缓冲区,python中是s 阅读全文
posted @ 2022-03-10 22:13 阿布_alone 阅读(1619) 评论(0) 推荐(0) 编辑
摘要: 假设我们有一段程序,从 Redis 中读取数据,解析以后提取出里面的 name 字段: import json import redis client = redis.Redis() def read(): while True: data = client.lpop('info') if data 阅读全文
posted @ 2022-03-09 23:58 阿布_alone 阅读(110) 评论(0) 推荐(0) 编辑
摘要: 我们经常会遇到监控文件变化的需求。例如日志监控程序监控日志文件,一旦日志文件发生变化,就进行读取。或者是大批量爬虫的规则配置文件监控,爬虫本身持续运行,一旦规则文件发生修改就自动读取新的规则。 常见的做法,如果文件比较小,可以直接读取以后跟上次读取的内容做对比;也可以判断文件的修改时间是否发生变化; 阅读全文
posted @ 2022-03-09 23:54 阿布_alone 阅读(160) 评论(0) 推荐(0) 编辑
摘要: 如果大家在 Linux 或者 macOS 下面运行一段可能导致内存泄露的程序,那么你可能会看到下面这样的情况: 而如果你用的系统是 Windows,那么可能电脑直接就卡死了。 但是,调试这种 OOM(Out of Memory)的问题有时候是非常困难的,因为你不知道代码哪个地方会导致内存泄露。但是如 阅读全文
posted @ 2022-03-09 23:48 阿布_alone 阅读(455) 评论(0) 推荐(0) 编辑
摘要: 经常使用 Selenium 或者 Puppeteer 的同学都知道,他们启动的 Chrome 浏览器分为有头模式和无头模式。在自己电脑上操作时,如果是有头模式,会弹出一个 Chrome 浏览器窗口,然后你能看到这个浏览器里面在自动操作。而无头模式则不会弹出任何窗口,只有进程。 别去送死了。Selen 阅读全文
posted @ 2022-03-09 23:32 阿布_alone 阅读(888) 评论(0) 推荐(0) 编辑
摘要: 设想有这样一个场景:爬虫把数据一条一条写入到 Redis 中,你的另一个程序从 Redis 中一条条读取出来,进行一些处理后写入 MongoDB。 一开始,你的处理逻辑非常简单,如果爬虫爬取的数据中,包含“垃圾信息”这四个字,那么直接把信息丢弃。 运行了一段时间,新增了一个需求:如果数据的“sour 阅读全文
posted @ 2022-03-09 23:27 阿布_alone 阅读(187) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 10 ··· 48 下一页
TOP