• 博客园logo
  • 会员
  • 众包
  • 新闻
  • 博问
  • 闪存
  • 赞助商
  • HarmonyOS
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
作死-no1
博客园    首页    新随笔    联系   管理    订阅  订阅
2018年10月2日
爬虫-----爬取所有国家的首都、面积 ,并保存到txt文件中
摘要: # -*- coding:utf-8 -*-import urllib2import lxml.htmlfrom lxml import etreedef main(): file = open('./countrys.txt', 'w+') file.close() countrys = [] u 阅读全文
posted @ 2018-10-02 15:46 作死-no1 阅读(346) 评论(0) 推荐(0)
爬虫-----爬取所有的国家和地区 首都、面积,并保存到txt文件中
摘要: # -*- coding:utf-8 -*-import urllib2import lxml.htmlfrom lxml import etreedef main(): file = open('./countrys.txt', 'w+') file.close() countrys = [] u 阅读全文
posted @ 2018-10-02 15:44 作死-no1 阅读(462) 评论(0) 推荐(0)
爬虫 -----爬取百度时事热点和url
摘要: 使用scrapy top.py 爬虫主要工作 pipelines.py 数据保存 main.py 执行脚本 items.py 初始化item 阅读全文
posted @ 2018-10-02 10:34 作死-no1 阅读(983) 评论(0) 推荐(0)
博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3