• 博客园logo
  • 会员
  • 众包
  • 新闻
  • 博问
  • 闪存
  • 赞助商
  • HarmonyOS
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
返回主页

逍遥子D

  • 博客园
  • 首页
  • 新随笔
  • 联系
  • 订阅
  • 管理

scrapyd部署scrapy中问题

anaconda中用scrapyd部署scrapy
现在不需要在修改scrapyd-deploy了
https://www.cnblogs.com/taoHongFei/p/8798024.html

部署成功后运行curl http://localhost:6800/schedule.json -d project=default -d spider=somespider命令status是ok,jobid也有,但是scrapyd的运行命令窗口报错且网页端的jobs中也没有任何spider
解决:安装pywin32模块

https://blog.csdn.net/weixin_45905437/article/details/103295747?spm=1001.2101.3001.6661.1&utm_medium=distribute.pc_relevant_t0.none-task-blog-2~default~BlogCommendFromBaidu~PaidSort-1-103295747-blog-110272554.235^v43^pc_blog_bottom_relevance_base3&depth_1-utm_source=distribute.pc_relevant_t0.none-task-blog-2~default~BlogCommendFromBaidu~PaidSort-1-103295747-blog-110272554.235^v43^pc_blog_bottom_relevance_base3

posted @ 2024-07-19 16:32  逍遥子D  阅读(11)  评论(0)    收藏  举报
刷新页面返回顶部

公告

博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3