Fork me on GitHub

nodeJs简单版爬虫

爬虫,以一种自动获取网页内容的程序。是搜索引擎的重要组成部分,因此搜索引擎优化很大程度上就是针对爬虫而做出的优化。
Robots.txt是一个文本文件,robots.txt是一个协议,不是一个命令。
Robots.txt是爬虫要查看的第一个文件,Robots.txt文件告诉爬虫在服务器上什么文件可以被查看,搜索机器人就会按照该文件中的内容来确定访问范围。
没有Robots可以爬所有东西。
let express = require("express");
let app = express();
let request = require("request");
let cheerio = require("cheerio");
app.get(
"/",function(req,res){ request("https://www.w3ctech.com/topic/256",function(err,rps,body){ console.log(body); res.end(body); }); }); app.listen(3000);

使用npm下载express、request、cheerio。

request是关键,它可以获取目标网页的静态资源信息。

cheerio可以让获取到的html转换成jq一样操作,方便获取节点信息。

如果要复杂的爬虫,就要正则加递归,不断获取目标链接下关联链接的所有信息。

 

还有如果robots.txt的内容被爬了,一般来说是犯法的,当然用来牟利一定就是犯法的。

 

posted @ 2018-02-06 23:05  小数点就是问题  阅读(136)  评论(0编辑  收藏  举报