• 博客园logo
  • 会员
  • 周边
  • 新闻
  • 博问
  • 闪存
  • 赞助商
  • YouClaw
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
三___毛
博客园    首页    新随笔    联系   管理    订阅  订阅

scrapy相关整理

  • 创建项目
cd进入项目的文件夹 scrapy startproject Demo---deom是居然的项目名称
  • 远程服务器后台定时执行
    先进入目录
    cd /data/scrapyPJ/Eggprice/Eggprice
    nohup python3 main.py &

     

    import time
    import schedule
    import os
    '''
    定时执行爬虫任务
    '''
    
    def job():
        # cmdline.execute('scrapy crawl Eggprice'.split())
    
        os.system("scrapy crawl Eggprice")
    print('开始执行')
    schedule.every().day.at("11:21").do(job)
    
    # schedule.every(2).minutes.do(job)
    
    while True:
        print(time.ctime())
        schedule.run_pending()
        time.sleep(2)

     

posted @ 2020-03-22 18:50  三___毛  阅读(115)  评论(0)    收藏  举报
刷新页面返回顶部
博客园  ©  2004-2026
浙公网安备 33010602011771号 浙ICP备2021040463号-3