摘要:
实际上安装scrapy框架时,需要安装很多依赖包,因此建议用pip安装,这里我就直接使用pycharm的安装功能直接搜索scrapy安装好了。 然后进入虚拟环境创建一个scrapy工程: (third_project) bigni@bigni:~/python_file/python_project 阅读全文
posted @ 2017-10-03 12:27
爬行的龟
阅读(3566)
评论(0)
推荐(0)
摘要:
通过scrapy的Request和parse,我们能很容易的爬取所有列表页的文章信息。 PS:parse.urljoin(response.url,post_url)的方法有个好处,如果post_url是完整的域名,则不会拼接response.url的主域名,如果不是完整的,则会进行拼接 # -*- 阅读全文
posted @ 2017-10-03 12:25
爬行的龟
阅读(1062)
评论(0)
推荐(0)

浙公网安备 33010602011771号