关于爬虫数据的解析器设计

一、为什么要设计解析器

我的七月小说网肯定不止爬单个站点的,每新增一个站点或者网页dom发生变化就得修改代码,多累哦。
所以我决定弄个数据解析器。

二、设计思路

下面是一个通用的解析规则对象

"parse": {
    "select": ".book-info h1 em",//通过BeautifulSoap 的select选择器,通过传入不同的解析规则(标签、className、id)等取出数据容器。
    "index": 0,//容器的索引位置
    "isList": false, //容器类型
    "func": "text", //预置的数据解析函数
    "state": 1, //解析规则状态
    "siteId": 1 //源站点对应id
}

1.首先确定解析器待获取的数据的类型和字段;
2.通过目标html dom节点确定select值;
3.根据数据类型判断容器类型是否是单个还是多个;
4.选择合适的预置数据处理function;

三、实例

以一个book对象举个例子:
现在要获取bookId, bookName, cover, author, summary, chapters, tags等这些数据。
1.把数据理出来:

book{
    bookId: String!
    bookName: String!
    cover: String!
    author: String
    summary: String
    chapters: List
    tags: List
    ...
}

2.为每个字段设计解析规则
下面是两个典型字段的解析

bookNameParse{
    select: ".book-info h1 em",
    index: 0,
    func: 'text',
    isList: false //容器类型
}
chaptersParse{
    select: ".catalog-content-wrap .volume-wrap .cf li a",
    func: 'list', //预置的数据解析函数  
    isList: true //容器类型
}

四、缺点

所有节点都在整个html dom中选择,可能会导致程序冗余;
程序设计更加复杂化了;
需要更多优化才能保持高可用性;
需要后台管理系统添加解析规则;

五、继续优化

1.添加解析规则的时候,强制校验解析规则的有效性;
2.为解析规则添加状态标记:

正常:解析规则正常运转
待修改:源网页html dom结构发生变化,需要修改;
废弃:不再使用此解析规则

posted @ 2018-02-27 13:48  J.Kuai  阅读(344)  评论(0编辑  收藏  举报