《C# 爬虫 破境之道》:第二境 爬虫应用 — 第三节:处理压缩数据

续上一节内容,本节主要讲解一下Web压缩数据的处理方法。

在HTTP协议中指出,可以通过对内容压缩来减少网络流量,从而提高网络传输的性能。

那么问题来了,在HTTP中,采用的是什么样的压缩格式和机制呢?

 

首先呢,先说压缩格式,主要有三种:

我们这里就不细琢磨了,格式里面又有算法,又有规则什么的,我也搞不清楚,说多了,挨骂……理解上,就相当于我们常用的Zip、7Zip、RAR等压缩格式;

但是需要注意的是,ZLIB和GZIP都是使用的DEFLATE,这就有点儿意思了,后面再说:)

 

说完压缩格式,再来说机制,分为两条路子(请求、回复):

  • 请求:在request header中指定Accept-Encoding。例如:Accept-Encoding: gzip, deflate, compress, br;Accept-Encoding在Headers中是可选的,可以不指定;当然,其中还有一些规则,后面我们结合回复一起给出;
  • 回复:在response header中指定Content-Encoding。例如:Content-Encoding: gzip;Content-Encoding在Headers中也是可选的,可以不指定;不过现在大多数站点都会对内容进行压缩,不过通常不会对图片及视频等已经经过压缩的资源进行压缩,因为得不偿失啊;

来解释一下,首先客户端(比如说浏览器)发出请求,我们在使用浏览器的过程中,一般就只是输入一个网址或点击某个连接,不会刻意去填写一下Accept-Encoding,但是浏览器会为我们添加;这个Accept-Encoding,就是告诉网站服务器端,我(浏览器)可以解释这几种压缩格式(一个列表),你(网站服务器)要是压缩,就给我这几种格式,否则,就不要压缩了;网站服务器端收到请求后,进行解析,看看有没有自己能够使用的压缩格式,如果有,那么就进行压缩,如果有多个可以使用,那就要看优先级,选择优先级最高的格式进行压缩(后面列出规则),并将使用的压缩格式填入Content-Encoding中发送回客户端;客户端(浏览器)收到回复以后,就看Content-Encoding有没有值,如果有并且自己也认识,那么就可以正常解压,显示在界面上了。

这个就是压缩的机制了,一切看起来那么的和谐,但在互联网的世界,总是不缺乏“惊喜”,即使客户端不指定任何Accept-Encoding,服务器端也会根据情况返回Content-Encoding,这就迫使浏览器,还必须得有两把刷子,否则就傻眼了。

HTTP Header中Accept-Encoding 是浏览器发给服务器,声明浏览器支持的编码类型[1] 
常见的有
Accept-Encoding: compress, gzip          //支持compress 和gzip类型
Accept-Encoding:                               //默认是identity
Accept-Encoding: *                            //支持所有类型
Accept-Encoding: compress;q=0.5, gzip;q=1.0//按顺序支持 gzip , compress
Accept-Encoding: gzip;q=1.0, identity; q=0.5, *;q=0 // 按顺序支持 gzip , identity
服务器返回的对应的类型编码header是 content-encoding.服务器处理accept-encoding的规则如下所示:
1. 如果服务器可以返回定义在Accept-Encoding 中的任何一种Encoding类型, 那么处理成功(除非q的值等于0, 等于0代表不可接受) 
2. * 代表任意一种Encoding类型 (除了在Accept-Encoding中显示定义的类型) 
3. 如果有多个Encoding同时匹配, 按照q值顺序排列 
4. identity总是可被接受的encoding类型(除非明确的标记这个类型q=0) 

如果Accept-Encoding的值是空, 那么只有identity是会被接受的类型
如果Accept-Encoding中的所有类型服务器都没法返回, 那么应该返回406错误给客户端
如果request中没有Accept-Encoding 那么服务器会假设所有的Encoding都是可以被接受的。
如果Accept-Encoding中有identity 那么应该优先返回identity (除非有q值的定义,或者你认为另外一种类型是更有意义的)
注意:
如果服务器不支持identity 并且浏览器没有发送Accept-Encoding,那么服务器应该倾向于使用HTTP1.0中的 "gzip" and "compress" , 服务器可能按照客户端类型发送更适合的encoding类型
大部分HTTP1.0的客户端无法处理q值

Accept-Encoding与Content-Encoding的规则
Accept-Encoding 与 Content-Encoding 的对应规则

 

另外,需要额外说明的是,在Accept-Encoding中指定的delfate,可不一定是DEFLATE压缩格式,按照官方的说法:

  • gzip,一种由文件压缩程序「Gzip,GUN zip」产生的编码格式,描述于 RFC 1952。这种编码格式是一种具有 32 位 CRC 的 Lempel-Ziv 编码(LZ77);
  • deflate,由定义于 RFC 1950 的「ZLIB」编码格式与 RFC 1951 中描述的「DEFLATE」压缩机制组合而成的产物;

也就是说,deflate其实对应的应该是ZLIB压缩格式,而它的名字,又与DEFLATE格式重名(估计这位同仁会被祭天了吧),导致很多浏览器厂商不知道究竟该用哪种格式来解释Content-Encoding: deflate,因为不论你选择哪种,都会有例外发生,这就尴尬了。所以,尽管deflate的压缩效果要比gzip好,但还是会被不少Web-Server放弃或者降低优先级。这也就是为什么我们会经常看到Content-Encoding: gzip而很少能看到Content-Encoding: deflate的原因;所以,我们在做爬虫的时候,也应该尽量避免使用deflate,减少不必要的麻烦。

 

话锋一转,回到我们的爬虫,也会遇到上面浏览器遇到的尴尬场面,所以,就必须得事先准备好常用的解压缩方式,要不然,数据抓下来了,读不出来,你说气不气~

本节中,我们就来继续改造我们的爬虫框架,让它也有两把刷子:)

[Code 2.3.1]

 1 public static byte[] DecompressStreamData(Stream sourceStream, String contentEncoding)
 2 {
 3     var _stream = sourceStream;
 4     switch ((contentEncoding ?? string.Empty).ToLower())
 5     {
 6         case "gzip":
 7             _stream = new GZipStream(sourceStream, CompressionMode.Decompress);
 8             break;
 9         case "deflate":
10             _stream = new DeflateStream(sourceStream, CompressionMode.Decompress);
11             break;
12         default:
13             break;
14     }
15     using (var memory = new MemoryStream())
16     {
17         int length = 256;
18         Byte[] buffer = new Byte[length];
19         int bytesRead = _stream.Read(buffer, 0, length);
20         while (bytesRead > 0)
21         {
22             memory.Write(buffer, 0, bytesRead);
23             bytesRead = _stream.Read(buffer, 0, length);
24         }
25         return memory.ToArray();
26     }
27 }
DecompressStreamData 静态方法

这是一个公共静态方法,其目的就是将原数据流中的数据转换为byte[]数组,其中,如果指定了压缩格式,就会使用适当的方法进行解压。这里只提供了最常见的gzip和不推荐的deflate两种格式,可以自行扩展。

 

接下来,就是对工蚁(WorkerAnt)进行改造了。

[Code 2.3.2]

 1 private void GetResponse(JobContext context)
 2 {
 3     context.Request.BeginGetResponse(new AsyncCallback(acGetResponse =>
 4     {
 5         var contextGetResponse = acGetResponse.AsyncState as JobContext;
 6         using (contextGetResponse.Response = contextGetResponse.Request.EndGetResponse(acGetResponse))
 7         using (contextGetResponse.ResponseStream = contextGetResponse.Response.GetResponseStream())
 8         using (contextGetResponse.Memory = new MemoryStream())
 9         {
10             // 此处省略N行……
11 
12             if (TaskStatus.Running == contextGetResponse.JobStatus)
13             {
14                 if (!String.IsNullOrEmpty(contextGetResponse.Response.Headers["Content-Encoding"]))
15                 {
16                     contextGetResponse.Memory.Seek(0, SeekOrigin.Begin);
17                     contextGetResponse.Buffer = DecompressStreamData(contextGetResponse.Memory
18                         , contextGetResponse.Response.Headers["Content-Encoding"]);
19                     //contextGetResponse.Buffer = contextGetResponse.Memory.ToArray();
20                 }
21                 else
22                     contextGetResponse.Buffer = contextGetResponse.Memory.ToArray();
23 
24                 contextGetResponse.JobStatus = TaskStatus.RanToCompletion;
25                 NotifyStatusChanged(new JobEventArgs { Context = context, EventAnt = this, });
26             }
27 
28             contextGetResponse.Buffer = null;
29         }
30     }), context);
31 }
改造WorkerAnt的GetResponse方法

注释中是原来使用的方法,现在用上面的DecompressStreamData替换掉了。

 

这样我们在收到采集完成事件通知时,就可以得到解压缩后的数据了:

[Code 2.3.3]

 1 switch (args.Context.JobStatus)
 2 {
 3     // 此处省略N行……
 4     case TaskStatus.RanToCompletion:
 5         if (null != args.Context.Buffer && 0 < args.Context.Buffer.Length)
 6         {
 7             Task.Factory.StartNew(oBuffer =>
 8             {
 9                 var content = new UTF8Encoding(false).GetString((byte[])oBuffer);
10                 richOutput.EndInvoke(richOutput.BeginInvoke(new MethodInvoker(() => { richOutput.Text = content; })));
11             }, args.Context.Buffer, TaskCreationOptions.LongRunning);
12         }
13         if (null != args.Context.Watch)
14             Console.WriteLine("/* ********************** using {0}ms / request  ******************** */"
15                 + Environment.NewLine + Environment.NewLine, (args.Context.Watch.Elapsed.TotalMilliseconds / 100).ToString("000.00"));
16         break;
17     // 此处省略N行……
18     default:/* Do nothing on this even. */
19         break;
20 }
改造应用中对事件的处理

至于为何在Complete事件的位置处理解压缩,而不在Running事件的位置,这是gzip的限制,它具有CRC校验位,CRC的算法,大家可以在网上搜索,大体上说,就是遍历一遍所有数据,进行与或计算,最终得到一个校验位,来保证数据的完整性与正确性。这也导致我们无法对中间数据进行解压,因为没有校验位,对末尾数据解压,又因数据不全,CRC计算结果也不会对。

 

至此,我们就完成了对HTTP协议内容部分已压缩数据的处理,抛砖引玉,可以实现更多种压缩格式的处理;

 

节外生枝:

  • 本节讲述的数据压缩,指的是HTTP协议中,对协议内容部分的压缩,在HTTP 2.x的版本中,增加了对协议头部的压缩(更确切的说是缓存)的机制,用空间换时间,由于2.x版本Schema为HTTPS,处理起来,另有蹊跷,本节先不做深入介绍了,可作为延伸内容,有兴趣的童鞋可以搜索相关主题;
  • 为了方便以后的做更多更好的案例,源码中增加了一个WinForm项目,这样在切换Uri的时候,就更方便一些;

 

喜欢本系列丛书的朋友,可以点击链接加入QQ交流群(994761602)【C# 破境之道】
方便各位在有疑问的时候可以及时给我个反馈。同时,也算是给各位志同道合的朋友提供一个交流的平台。
需要源码的童鞋,也可以在群文件中获取最新源代码。

posted @ 2020-01-19 10:34  MikeCheers  阅读(...)  评论(...编辑  收藏