随笔分类 -  python爬虫

摘要:正文的抽取 阅读全文
posted @ 2018-07-01 16:36 王琳杰 阅读(390) 评论(0) 推荐(0)
摘要:使用pyquery解析 attr()方法可获取属性 阅读全文
posted @ 2018-07-01 03:59 王琳杰 阅读(585) 评论(0) 推荐(0)
摘要:l 取出用户名 阅读全文
posted @ 2018-07-01 02:54 王琳杰 阅读(271) 评论(0) 推荐(0)
摘要:安装好了MySQL数据库并保证它能正常运行,而且需要安装好PyMySQL库。 连接数据库 这里,首先尝试连接一下数据库。假设当前的MySQL运行在本地,用户名为root,密码为123456,运行端口为3306。这里利用PyMySQL先连接MySQL,然后创建一个新的数据库,名字叫作spiders,代 阅读全文
posted @ 2018-06-30 22:56 王琳杰 阅读(958) 评论(0) 推荐(0)
摘要:使用XPath 保存为TXT 保存为csv 读取csv Excel打开乱码参考:excel打开csv文件显示乱码的处理方法_百度经验 保存到MongoDB 稍微改动 抛出异常 raise DuplicateKeyError(error.get("errmsg"), 11000, error) pym 阅读全文
posted @ 2018-06-30 20:35 王琳杰 阅读(1351) 评论(0) 推荐(0)
摘要:发送post请求 可以使用 yield scrapy.FormRequest(url, formdata, callback)方法发送POST请求。 如果希望程序执行一开始就发送POST请求,可以重写Spider类的start_requests(self) 方法,并且不再调用start_urls里的 阅读全文
posted @ 2018-06-30 11:49 王琳杰 阅读(328) 评论(0) 推荐(0)
摘要:爬取站点 https://it.ithome.com/ityejie/ ,进入详情页提取内容。 阅读全文
posted @ 2018-06-30 10:41 王琳杰 阅读(331) 评论(0) 推荐(0)
摘要:爬取站点 https://it.ithome.com/ityejie/ ,进入详情页提取内容。 阅读全文
posted @ 2018-06-30 02:19 王琳杰 阅读(408) 评论(0) 推荐(0)
摘要:源码自带项目说明: 使用scrapy-redis的example来修改 先从github上拿到scrapy-redis的示例,然后将里面的example-project目录移到指定的地址: 我们clone到的 scrapy-redis 源码中有自带一个example-project项目,这个项目包含 阅读全文
posted @ 2018-06-29 00:58 王琳杰 阅读(295) 评论(0) 推荐(0)
摘要:爬取 http://tech.china.com/articles/ 抓取新闻列表中所有分页的新闻详情,包括标题、正文、时间、来源等信息。 创建项目scrapy startproject China scrapy genspider -t crawl chinatech items.py china 阅读全文
posted @ 2018-06-28 21:35 王琳杰 阅读(379) 评论(0) 推荐(0)
摘要:创建项目scrapy startproject douyu 编写items.py 创建基础类的爬虫 scrapy genspider douyutupian capi.douyucdn.cn 手机抓包得到API接口,返回JSON格式数据 douyutupian.py 管道文件pipelines.py 阅读全文
posted @ 2018-06-28 19:42 王琳杰 阅读(540) 评论(0) 推荐(0)
摘要:创建项目 scrapy startproject ithome 创建CrawSpider scrapy genspider -t crawl IT ithome.com items.py it.py pipelines.py 执行 scrapy crawl it 阅读全文
posted @ 2018-06-27 21:56 王琳杰 阅读(229) 评论(0) 推荐(0)
摘要:搜狗对微信公众平台的公众号和文章做了整合,使用代理爬取。 spider.py 阅读全文
posted @ 2018-06-26 22:30 王琳杰 阅读(2059) 评论(0) 推荐(0)
摘要:创建项目 scrapy startproject shebao items.py 创建CrawSpider,使用模版crawl scrapy genspider -t crawl SB www.bjrbj.gov.cn SB.py pipelines.py 执行 scrapy crawl SB 阅读全文
posted @ 2018-06-26 22:19 王琳杰 阅读(459) 评论(0) 推荐(0)
摘要:创建项目 items.py zhaopin.py pipelines.py 执行 scrapy crawl zhaopin 阅读全文
posted @ 2018-06-26 01:22 王琳杰 阅读(755) 评论(0) 推荐(0)
摘要:直接上代码吧 >>> import time >>> time.time() 1529935923.641123 >>> time.localtime( time.time() ) time.struct_time(tm_year=2018, tm_mon=6, tm_mday=25, tm_hou 阅读全文
posted @ 2018-06-25 23:26 王琳杰 阅读(13576) 评论(0) 推荐(0)
摘要:爬取爱笔智能招聘职位 http://aibee.com/cn/joinus.aspx 或者: 阅读全文
posted @ 2018-06-25 23:10 王琳杰 阅读(272) 评论(0) 推荐(0)
摘要:爬取知乎Python中文社区信息,https://zhuanlan.zhihu.com/zimei 阅读全文
posted @ 2018-06-25 22:33 王琳杰 阅读(371) 评论(0) 推荐(0)
摘要:1 import urllib.request 2 import urllib.parse 3 import requests 4 from urllib.parse import urlencode 5 from pyquery import PyQuery as pq 6 from pymongo import MongoClient 7 import json ... 阅读全文
posted @ 2018-06-25 01:57 王琳杰 阅读(202) 评论(0) 推荐(0)
摘要:Ajax,全称为Asynchronous JavaScript and XML,即异步的JavaScript和XML。它不是一门编程语言,而是利用JavaScript在保证页面不被刷新、页面链接不改变的情况下与服务器交换数据并更新部分网页的技术。 对于传统的网页,如果想更新其内容,那么必须要刷新整个 阅读全文
posted @ 2018-06-24 11:22 王琳杰 阅读(419) 评论(0) 推荐(0)