2019年10月14日

摘要: crawley startproject crawley_spider cd crawley_spider pypiScraper类内部定义的scrape方法。它使用Xpath来获取解析的html,然后将提取的数据存储在Packages表中。 运行爬虫:crawley run 阅读全文

posted @ 2019-10-14 16:03 大白不白 阅读(2635) 评论(0) 推荐(0)

摘要: 1.主要用到的函数及调用的顺序为: __init__():初始化爬虫名字,和start_urls列表 start_requests()调用make_requests_from_url():生成request对象交给scrapy下载并返回response parse():解析response,并返回I 阅读全文

posted @ 2019-10-14 13:43 大白不白 阅读(185) 评论(0) 推荐(0)


博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3