摘要:
最近要部署分布式爬虫用来提高效率,但是发现配置环境太耗时间了,于是想到了docker神器,docker可以简单理解成环境配置中的git,docker安装就不介绍了 这里以创建一个scrapydweb为例来讲解docker使用 一、创建一个文件夹scrapydweb,里面放下面三个文件 1.1、创建D 阅读全文
posted @ 2020-05-18 16:22
liuxianglong
阅读(1949)
评论(0)
推荐(0)
摘要:
ps -ef | grep scrapydweb kill -9 pid (上面指令的结果中的第二列数字) 阅读全文
posted @ 2020-05-18 15:23
liuxianglong
阅读(1564)
评论(0)
推荐(0)

浙公网安备 33010602011771号