从零实现一个高性能网络爬虫(二)应对反爬虫之前端数据混淆

摘要

  • 上一篇以知乎网为例简单分享网络请求分析。这一篇主要分享一种应对反爬虫的方法,前端数据混淆。

目的

开始

  • 打开这个网站首页,然后控制台查看ip和port的对应标签。
  • 如上图(图一),从控制台的标签中可以看出ip加了一些无关不显示的标签来混淆数据,这里混淆的原理其实很简单,通过标签的style="display:none"属性来达到混淆的目的,也就是包含这个属性的标签是不会显示在页面上的。知道了这一点就比较好处理了,只需要在解析的时候把包含style="display:none"属性的标签去掉。就可以轻松的拿到ip和port数据了。
  • 代码如下
     1 package com.cnblogs.wycm;
     2 
     3 import org.jsoup.Jsoup;
     4 import org.jsoup.nodes.Document;
     5 import org.jsoup.nodes.Element;
     6 import org.jsoup.select.Elements;
     7 import java.io.IOException;
     8 import java.net.URL;
     9 
    10 /**
    11  *
    12  * 数据的解析采用的是Jsoup框架,Jsoup是一个操作HTML标签的Java库,它提供了非常方便的API来提取和操纵库,支持类似jquery的选择器来查找标签。
    13  * 由于请求比较单一,这里的网络请求并没有采用上一篇所使用HttpClient框架。直接通过Jsoup来执行http请求的。
    14  * 关于Jsoup的使用可以参考http://www.open-open.com/jsoup/
    15  *
    16  */
    17 public class Chapter1 {
    18     public static void main(String[] args) throws IOException {
    19         Document document= Jsoup.parse(new URL("http://www.goubanjia.com/"), 10000);
    20         //获取class='table'的table的所有子节点tr
    21         Elements elements = document.select("table[class=table] tr");
    22         for (int i = 1; i < elements.size(); i++){
    23             //获取td节点
    24             Element td = elements.get(i).select("td").first();
    25             /**
    26              * 查找所有style属性包含none字符串的标签(页面上未显示的标签),并移除
    27              * 包括以下两种
    28              * style=display: none;
    29              * style=display:none;
    30              */
    31             for(Element none : td.select("[style*=none;]")){
    32                 none.remove();
    33             }
    34             //移除空格
    35             String ipPort = td.text().replaceAll(" ", "");
    36             //打印
    37             System.out.println(ipPort);
    38         }
    39     }
    40 }
    41 /*
    42 第一次运行打印结果:
    43 183.129.246.228:8132
    44 222.92.136.206:8987
    45 54.238.186.100:8988
    46 ...
    47 第二次运行打印结果:
    48 183.129.246.228:8377
    49 222.92.136.206:9059
    50 54.238.186.100:8622
    51 ...
    52 */
  • ip地址能够准确的拿到了,却发现port被做了混淆,而且每次返回的port还在动态改变。大家可以通过把浏览器的JavaScrip脚本关闭后,然后刷新这个网页。会发现每次的port都不一样。我们每次看到的正确port都是通过JavaScript脚本处理后的。如果采用普通爬虫的方式拿到的port都是错误的。现在要想拿到正确的port,可以通过分析它JavaScrip脚本还原数据的逻辑。
  • 同样打开控制台->选择Sources->选择一行js代码打断点(点击行编号),如下图

  • 刷新网页—>页面Paused in debugger—>选择Elements->右键td节点->Break on...->subtree modifications。这两个步骤就是在设置断点调试,也就是在td节点发生改变的时候paused。

  • 选择Sources->F8(继续执行),这个时候又会有一次pause,也就是js脚本在还原正确port的时候(如下图)

  • 函数的调用栈有好多层,如何快速定位哪一个函数的技巧就是,看它局部变量表的变量变化,因为这里是port在发生改变,然后找到对应变量和对应逻辑函数。简单分析可以确定到port发生改变的函数是一个匿名函数,如下图

  • 格式化后,代码如下:
     1 var _$ = ['\x2e\x70\x6f\x72\x74', "\x65\x61\x63\x68", "\x68\x74\x6d\x6c", "\x69\x6e\x64\x65\x78\x4f\x66", '\x2a', "\x61\x74\x74\x72", '\x63\x6c\x61\x73\x73', "\x73\x70\x6c\x69\x74", "\x20", "", "\x6c\x65\x6e\x67\x74\x68", "\x70\x75\x73\x68", '\x41\x42\x43\x44\x45\x46\x47\x48\x49\x5a', "\x70\x61\x72\x73\x65\x49\x6e\x74", "\x6a\x6f\x69\x6e", ''];
     2 $(function() {
     3     $(_$[0])[_$[1]](function() {
     4         var a = $(this)[_$[2]]();
     5         if (a[_$[3]](_$[4]) != -0x1) {
     6             return
     7         }
     8         ;var b = $(this)[_$[5]](_$[6]);
     9         try {
    10             b = (b[_$[7]](_$[8]))[0x1];
    11             var c = b[_$[7]](_$[9]);
    12             var d = c[_$[10]];
    13             var f = [];
    14             for (var g = 0x0; g < d; g++) {
    15                 f[_$[11]](_$[12][_$[3]](c[g]))
    16             }
    17             ;$(this)[_$[2]](window[_$[13]](f[_$[14]](_$[15])) >> 0x3)
    18         } catch (e) {}
    19     })
    20 })

     

  • 搜索'_$'字符串,可以看到。代码里面有多处引用了这个数组的元素。其中\x后面是16进制数,对应asaii字符。比如\x61为十进制的97,表示字符a。推荐一个在线的解码工具:http://tool.lu/js。解码后然后把代码中引用到_$数组元素的地方,再进行替换。
  • 还原后如下:
     1 var _$ = ['.port', "each", "html", "indexOf", '*', "attr", 'class', "split", " ", "", "length", "push", 'ABCDEFGHIZ', "parseInt", "join", ''];
     2 $(function() {
     3     $('.port').each(function() {
     4         var a = $(this).html();
     5         if (a.indexOf('*') != -0x1) {
     6             return
     7         }
     8         ;var b = $(this).attr('class');
     9         try {
    10             b = (b.split(" "))[0x1];
    11             var c = b.split("");
    12             var d = c.length;
    13             var f = [];
    14             for (var g = 0x0; g < d; g++) {
    15                 f.push('ABCDEFGHIZ'.indexOf(c[g]))
    16             }
    17             ;$(this).html(window.parseInt(f.join('')) >> 0x3)
    18         } catch (e) {}
    19     })
    20 })
  • 这段代码的逻辑,获取port标签的class属性值,取出属性中后面的几个大写字母,遍历该字符串,找出每次字符在'ABCDEFGHIZ'这个字符串中的索引,然后parseInt转换为整数,然后进行右移3位的操作。
  • 完整代码实现
     1 package com.cnblogs.wycm;
     2 
     3 import org.jsoup.Jsoup;
     4 import org.jsoup.nodes.Document;
     5 import org.jsoup.nodes.Element;
     6 import org.jsoup.select.Elements;
     7 
     8 import java.io.IOException;
     9 import java.net.URL;
    10 
    11 public class Chapter2 {
    12     public static void main(String[] args) throws IOException {
    13         Document document= Jsoup.parse(new URL("http://www.goubanjia.com/"), 10000);
    14         setPort(document);
    15         //获取class='table'的table的所有子节点tr
    16         Elements elements = document.select("table[class=table] tr");
    17         for (int i = 1; i < elements.size(); i++){
    18             //获取td节点
    19             Element td = elements.get(i).select("td").first();
    20             /**
    21              * 查找所有style属性包含none字符串的标签(页面上未显示的标签),并移除
    22              * 包括以下两种
    23              * style=display: none;
    24              * style=display:none;
    25              */
    26             for(Element none : td.select("[style*=none;]")){
    27                 none.remove();
    28             }
    29             //移除空格
    30             String ipPort = td.text().replaceAll(" ", "");
    31             //打印
    32             System.out.println(ipPort);
    33         }
    34     }
    35 
    36     /**
    37      * js代码port还原
    38      * @param doc
    39      */
    40     private static void setPort(Document doc){
    41         for (Element e : doc.select(".port")){//$('.port').each(function() {
    42             String a = e.text();//var a = $(this).html();
    43             if(a.indexOf("*") != -0x1){//if (a.indexOf('*') != -0x1) {
    44                 return;
    45             }
    46             String b = e.attr("class");//var b = $(this).attr('class');
    47             b = b.split(" ")[0x1];//b = (b.split(" "))[0x1];
    48             String[] c = b.split("");//var c = b.split("");
    49             int d = b.length();//var d = c.length;
    50             StringBuilder f = new StringBuilder();//var f = [];
    51             for(int g = 0x0; g < d; g++){//for (var g = 0x0; g < d; g++) {
    52                 f.append("ABCDEFGHIZ".indexOf(c[g]));//f.push('ABCDEFGHIZ'.indexOf(c[g]))
    53             }
    54             e.text(String.valueOf(Integer.valueOf(f.toString()) >> 0x3));//$(this).html(window.parseInt(f.join('')) >> 0x3)
    55         }
    56     }
    57 }
  • maven依赖

    1 <dependency>
    2        <groupId>org.jsoup</groupId>
    3        <artifactId>jsoup</artifactId>
    4        <version>1.10.2</version>
    5 </dependency>

总结

  • 该篇文章简单分项了下如何应对前端混淆的反爬虫。关于这种反爬虫,还有其它的一些应对方式。如采用无头浏览器的方式,比如phantomjs框架。这种无头浏览器原本是用来做自动化测试的。它是基于webkit内核的,所以它可以较容易的爬取这种前端混淆的这种网站。一般来说浏览器能够正常访问到的数据,这种方式也可以比较容易爬取这些数据。当然这种方式的最大问题就是效率比较低。因为这种方式它每加载一个页面,都需要下载它的附加资源,如js脚本,脚本下载完成后,还要去执行js脚本。
  • 我这里采用的方式是阅读js代码,得出前端混淆的逻辑,然后再通过目标语言来实现对应逻辑。这种方式如果针对一些简单的加密混淆还是很有用的。但是当遇到一些大型复杂的网站,如百度、微博等,需要抓取登录后的数据。这时候需要来手动模拟登录,相对来说,这种网站的模拟登录会更复杂,找各种登录参数来源。都会耗费大量精力。分析请求的成本会比较高。这种方式的优点就是爬取速度快,只获取目标数据。不需要额外网络请求成本。

 

 



一个程序员日常分享,包括但不限于爬虫、Java后端技术,欢迎关注。

posted @ 2017-05-19 17:31  卧颜沉默  阅读(3741)  评论(12编辑  收藏  举报