HTTP(四)连接管理
TCP连接
世界上几乎所有的HTTP 通信都是由TCP/IP 承载的,TCP/IP 是全球计算机及网络设备都在使用的一种常用的分组交换网络分层协议集。客户端应用程序可以打开一条TCP/IP 连接,连接到可能运行在世界任何地方的服务器应用程序。一旦连接建立起来了,在客户端和服务器的计算机之间交换的报文就永远不会丢失、受损或失序。
TCP的可靠数据管道
HTTP 连接实际上就是TCP 连接及其使用规则。TCP 连接是因特网上的可靠连接。
TCP 为HTTP 提供了一条可靠的比特传输管道。从TCP 连接一端填入的字节会从另一端以原有的顺序、正确地传送出来。
TCP流是分段的、由IP分组传送
TCP 的数据是通过名为IP 分组(或IP 数据报)的小数据块来发送的。这样的话,HTTP 就是“HTTP over TCP over IP”这个“协议栈”中的最顶层了。其安全版本HTTPS 就是在HTTP 和TCP 之间插入了一个(称为TLS 或SSL的)密码加密层。
HTTP 要传送一条报文时,会以流的形式将报文数据的内容通过一条打开的TCP 连接按序传输。TCP 收到数据流之后,会将数据流砍成被称作段的小数据块,并将段封装在IP 分组中,通过因特网进行传输。所有这些工作都是由TCP/IP 软件来处理的,HTTP 程序员什么都看不到。
每个TCP 段都是由IP 分组承载,从一个IP 地址发送到另一个IP 地址的。每个IP分组中都包括:
- 一个 IP 分组首部(通常为 20 字节)
- 一个 TCP 段首部(通常为 20 字节)
- 一个 TCP 数据块(0 个或多个字节)
IP 首部包含了源和目的IP 地址、长度和其他一些标记。TCP 段的首部包含了TCP端口号、TCP 控制标记,以及用于数据排序和完整性检查的一些数字值。
保持TCP连接持续不断地运行
在任意时刻计算机都可以有几条TCP 连接处于打开状态。TCP 是通过端口号来保持所有这些连接持续不断地运行。
IP 地址可以将你连接到正确的计算机,而端口号则可以将你连接到正确的应用程序上去。TCP 连接是通过4 个值来识别的:
< 源IP 地址、源端口号、目的IP 地址、目的端口号>
这4 个值一起唯一地定义了一条连接。两条不同的TCP 连接不能拥有4 个完全相同的地址组件值(但不同连接的部分组件可以拥有相同的值)。
四条TCP连接的例子
没有两个不同连接所有的4 个值都一样。
用TCP套接字编程
操作系统提供了一些操纵其TCP 连接的工具。这个套接字API向HTTP 程序员隐藏了TCP 和IP 的所有细节。套接字API 最初是为Unix 操作系统开发的,但现在几乎所有的操作系统和语言中都有其变体存在。
套接字API 允许用户创建TCP 的端点数据结构,将这些端点与远程服务器的TCP端点进行连接,并对数据流进行读写。TCP API 隐藏了所有底层网络协议的握手细节,以及TCP 数据流与IP 分组之间的分段和重装细节。
上图显示客户端和服务器是如何通过TCP 套接字接口进行通信的。
对TCP性能的考虑
HTTP事务的时延
注意,与建立TCP 连接,以及传输请求和响应报文的时间相比,事务处理时间可能是很短的。除非客户端或服务器超载,或正在处理复杂的动态资源,否则HTTP 时延就是由TCP 网络时延构成的。
HTTP 事务的时延有以下几种主要原因。
-
客户端首先需要根据URI 确定Web 服务器的IP 地址和端口号。如果最近没有对URI 中的主机名进行访问,通过DNS 解析系统将URI 中的主机名转换成一个IP地址可能要花费数十秒的时间。
-
接下来,客户端会向服务器发送一条TCP 连接请求,并等待服务器回送一个请求接受应答。每条新的TCP 连接都会有连接建立时延。这个值通常最多只有一两秒钟,但如果有数百个HTTP 事务的话,这个值会快速地叠加上去。
-
一旦连接建立起来了,客户端就会通过新建立的TCP 管道来发送HTTP 请求。数据到达时,Web 服务器会从TCP 连接中读取请求报文,并对请求进行处理。因特网传输请求报文,以及服务器处理请求报文都需要时间。
- 然后,Web 服务器会回送HTTP 响应,这也需要花费时间。
这些TCP 网络时延的大小取决于硬件速度、网络和服务器的负载,请求和响应报文的尺寸,以及客户端和服务器之间的距离。TCP 协议的技术复杂性也会对时延产生巨大的影响。
性能聚焦区域
建立一条新的TCP 连接时,甚至是在发送任意数据之前,TCP 软件之间会交换一系列的IP 分组,对连接的有关参数进行沟通。如果连接只用来传送少量数据,这些交换过程就会严重降低HTTP 的性能。
TCP 连接握手需要经过以下几个步骤。
-
请求新的TCP 连接时,客户端要向服务器发送一个小的TCP 分组(通常是40 ~60 个字节)。这个分组中设置了一个特殊的SYN 标记,说明这是一个连接请求。
-
如果服务器接受了连接,就会对一些连接参数进行计算,并向客户端回送一个TCP 分组,这个分组中的SYN 和ACK 标记都被置位,说明连接请求已被接受
-
最后,客户端向服务器回送一条确认信息,通知它连接已成功建立。现代的TCP 栈都允许客户端在这个确认分组中发送数据。
HTTP 程序员永远不会看到这些分组——这些分组都由TCP/IP 软件管理,对其是不可见的。HTTP 程序员看到的只是创建TCP 连接时存在的时延。
通常HTTP 事务都不会交换太多数据,此时,SYN/SYN+ACK 握手会产生一个可测量的时延。TCP 连接的ACK 分组通常都足够大,可以承载整个HTTP 请求报文,而且很多HTTP 服务器响应报文都可以放入一个IP 分组中去。
小的HTTP 事务可能会在TCP 建立上花费50%,或更多的时间。
延迟确认
每个TCP 段都有一个序列号和数据完整性校验和。每个段的接收者收到完好的段时,都会向发送者回送小的确认分组。如果发送者没有在指定的窗口时间内收到确认信息,发送者就认为分组已被破坏或损毁,并重发数据。
由于确认报文很小,所以TCP 允许在发往相同方向的输出数据分组中对其进行“捎带”。TCP 将返回的确认信息与输出的数据分组结合在一起,可以更有效地利用网络。为了增加确认报文找到同向传输数据分组的可能性,很多TCP 栈都实现了一种“延迟确认”算法。延迟确认算法会在一个特定的窗口时间(通常是100 ~ 200 毫秒)内将输出确认存放在缓冲区中,以寻找能够捎带它的输出数据分组。如果在那个时间段内没有输出数据分组,就将确认信息放在单独的分组中传送。
但是,HTTP 具有双峰特征的请求- 应答行为降低了捎带信息的可能。当希望有相反方向回传分组的时候,偏偏没有那么多。通常,延迟确认算法会引入相当大的时延。根据所使用操作系统的不同,可以调整或禁止延迟确认算法。
在对TCP 栈的任何参数进行修改之前,一定要对自己在做什么有清醒的认识。TCP中引入这些算法的目的是防止设计欠佳的应用程序对因特网造成破坏。对TCP 配置进行的任意修改,都要绝对确保应用程序不会引发这些算法所要避免的问题。
TCP慢启动
TCP 数据传输的性能还取决于TCP 连接的使用期(age)。TCP 连接会随着时间进行自我“调谐”,起初会限制连接的最大速度,如果数据成功传输,会随着时间的推移提高传输的速度。这种调谐被称为TCP 慢启动(slow start),用于防止因特网的突然过载和拥塞。
TCP 慢启动限制了一个TCP 端点在任意时刻可以传输的分组数。简单来说,每成功接收一个分组,发送端就有了发送另外两个分组的权限。如果某个HTTP 事务有大量数据要发送,是不能一次将所有分组都发送出去的。必须发送一个分组,等待确认;然后可以发送两个分组,每个分组都必须被确认,这样就可以发送四个分组了,以此类推。这种方式被称为“打开拥塞窗口”。
由于存在这种拥塞控制特性,所以新连接的传输速度会比已经交换过一定量数据的、“已调谐”连接慢一些。由于已调谐连接要更快一些,所以HTTP 中有一些可以重用现存连接的工具。
Nagle算法与TCP_NODELAY
TCP 有一个数据流接口,应用程序可以通过它将任意尺寸的数据放入TCP 栈中——即使一次只放一个字节也可以!但是,每个TCP 段中都至少装载了40 个字节的标记和首部,所以如果TCP 发送了大量包含少量数据的分组,网络的性能就会严重下降。
Nagle 算法(根据其发明者John Nagle 命名)试图在发送一个分组之前,将大量TCP 数据绑定在一起,以提高网络效率。
Nagle 算法鼓励发送全尺寸(LAN 上最大尺寸的分组大约是1500 字节,在因特网上是几百字节)的段。只有当所有其他分组都被确认之后,Nagle 算法才允许发送非全尺寸的分组。如果其他分组仍然在传输过程中,就将那部分数据缓存起来。只有当挂起分组被确认,或者缓存中积累了足够发送一个全尺寸分组的数据时,才会将缓存的数据发送出去。
Nagle 算法会引发几种HTTP 性能问题。首先,小的HTTP 报文可能无法填满一个分组,可能会因为等待那些永远不会到来的额外数据而产生时延。其次,Nagle 算法与延迟确认之间的交互存在问题——Nagle 算法会阻止数据的发送,直到有确认分组抵达为止,但确认分组自身会被延迟确认算法延迟100 ~ 200 毫秒。
HTTP 应用程序常常会在自己的栈中设置参数TCP_NODELAY,禁用Nagle 算法,提高性能。如果要这么做的话,一定要确保会向TCP 写入大块的数据,这样就不会产生一堆小分组了。
TIME_WAIT累积与端口耗尽
TIME_WAIT 端口耗尽是很严重的性能问题,会影响到性能基准,但在现实中相对较少出现。大多数遇到性能基准问题的人最终都会碰到这个问题,而且性能都会变得出乎意料地差,所以这个问题值得特别关注。
当某个TCP 端点关闭TCP 连接时,会在内存中维护一个小的控制块,用来记录最近所关闭连接的IP 地址和端口号。这类信息只会维持一小段时间,通常是所估计的最大分段使用期的两倍(称为2MSL,通常为2 分钟8)左右,以确保在这段时间内不会创建具有相同地址和端口号的新连接。实际上,这个算法可以防止在两分钟内创建、关闭并重新创建两个具有相同IP 地址和端口号的连接。
现在高速路由器的使用,使得重复分组几乎不可能在连接关闭的几分钟之后,出现在服务器上。有些操作系统会将2MSL 设置为一个较小的值,但修改此值时要特别小心。分组确实会被复制,如果来自之前连接的复制分组插入了具有相同连接值的新TCP 流,会破坏TCP 数据。
2MSL 的连接关闭延迟通常不是什么问题,但在性能基准环境下就可能会成为一个问题。进行性能基准测试时,通常只有一台或几台用来产生流量的计算机连接到某系统中去,这样就限制了连接到服务器的客户端IP 地址数。而且,服务器通常会在HTTP 的默认TCP 端口80 上进行监听。用TIME_WAIT 防止端口号重用时,这些情况也限制了可用的连接值组合。
在只有一个客户端和一台Web 服务器的异常情况下,构建一条TCP 连接的4 个值,其中的3 个都是固定的——只有源端口号可以随意改变:
<client-IP, source-port, server-IP, 80>
客户端每次连接到服务器上去时,都会获得一个新的源端口,以实现连接的唯一性。但由于可用源端口的数量有限(比如,60 000 个),而且在2MSL 秒(比如,120秒)内连接是无法重用的,连接率就被限制在了60 000/120=500 次/ 秒。如果再不断进行优化,并且服务器的连接率不高于500 次/ 秒,就可确保不会遇到TIME_WAIT 端口耗尽问题。要修正这个问题,可以增加客户端负载生成机器的数量,或者确保客户端和服务器在循环使用几个虚拟IP 地址以增加更多的连接组合。
即使没有遇到端口耗尽问题,也要特别小心有大量连接处于打开状态的情况,或为处于等待状态的连接分配了大量控制块的情况。在有大量打开连接或控制块的情况下,有些操作系统的速度会严重减缓。
HTTP连接的处理
常被误解的Connection首部
HTTP 允许在客户端和最终的源端服务器之间存在一串HTTP 中间实体(代理、高速缓存等)。可以从客户端开始,逐跳地将HTTP 报文经过这些中间设备,转发到源端服务器上去(或者进行反向传输)。
HTTP 的Connection 首部字段中有一个由逗号分隔的连接标签列表,这些标签为此连接指定了一些不会传播到其他连接中去的选项。
Connection 首部可以承载3 种不同类型的标签
- HTTP首部字段名,列出了只与此连接有关的首部;
- 任意标签值,用于描述此连接的非标准选项;
- 值 close,说明操作完成之后需关闭这条持久连接。
如果连接标签中包含了一个HTTP 首部字段的名称,那么这个首部字段就包含了与一些连接有关的信息,不能将其转发出去。在将报文转发出去之前,必须删除Connection 首部列出的所有首部字段。由于Connection 首部可以防止无意中对本地首部的转发,因此将逐跳首部名放入Connection 首部被称为“对首部的保护”。
HTTP 应用程序收到一条带有Connection 首部的报文时,接收端会解析发送端请求的所有选项,并将其应用。然后会在将此报文转发给下一跳地址之前,删除Connection 首部以及Connection 中列出的所有首部。而且,可能还会有少量没有作为Connection 首部值列出,但一定不能被代理转发的逐跳首部。其中包括Prxoy-Authenticate、Proxy-Connection、Transfer-Encoding 和Upgrade。
串行事务处理时延
如果只对连接进行简单的管理,TCP 的性能时延可能会叠加起来。比如,假设有一个包含了3 个嵌入图片的Web 页面。浏览器需要发起4 个HTTP 事务来显示此页面:1 个用于顶层的HTML 页面,3 个用于嵌入的图片。如果每个事务都需要(串行地建立)一条新的连接,那么连接时延和慢启动时延就会叠加起来。
还有几种现存和新兴的方法可以提高HTTP 的连接性能。
- 并行连接
通过多条TCP 连接发起并发的HTTP 请求。 - 持久连接
重用TCP 连接,以消除连接及关闭时延。 - 管道化连接
通过共享的TCP 连接发起并发的HTTP 请求。 - 复用的连接
交替传送请求和响应报文(实验阶段)。
并行连接
HTTP 允许客户端打开多条连接,并行地执行多个HTTP 事务。
并行连接可能会提高页面的加载速度
包含嵌入对象的组合页面如果能(通过并行连接)克服单条连接的空载时间和带宽限制,加载速度也会有所提高。时延可以重叠起来,而且如果单条连接没有充分利用客户端的因特网带宽,可以将未用带宽分配来装载其他对象。
并行连接不一定更快
客户端的网络带宽不足时,大部分的时间可能都是用来传送数据的。在这种情况下,一个连接到速度较快服务器上的HTTP 事务就会很容易地耗尽所有可用的Modem 带宽。如果并行加载多个对象,每个对象都会去竞争这有限的带宽,每个对象都会以较慢的速度按比例加载,这样带来的性能提升就很小,甚至没什么提升。
而且,打开大量连接会消耗很多内存资源,从而引发自身的性能问题。复杂的Web页面可能会有数十或数百个内嵌对象。客户端可能可以打开数百个连接,但Web 服务器通常要同时处理很多其他用户的请求,所以很少有Web 服务器希望出现这样的情况。一百个用户同时发出申请,每个用户打开100 个连接,服务器就要负责处理10 000 个连接。这会造成服务器性能的严重下降。对高负荷的代理来说也同样如此。
实际上,浏览器确实使用了并行连接,但它们会将并行连接的总数限制为一个较小的值(通常是4 个)。服务器可以随意关闭来自特定客户端的超量连接。
并行连接可能让人“感觉”更快一些
即使实际上它们并没有加快页面的传输速度,并行连接通常也会让用户觉得页面加载得更快了,因为多个组件对象同时出现在屏幕上时,用户能够看到加载的进展。如果整个屏幕上有很多动作在进行,即使实际上秒表显示整个页面的下载时间更长,人们也会认为Web 页面加载得更快一些。
持久连接
初始化了对某服务器HTTP 请求的应用程序很可能会在不久的将来对那台服务器发起更多的请求。这种性质被称为站点局部性。
因此,HTTP/1.1(以及HTTP/1.0 的各种增强版本) 允许HTTP 设备在事务处理结束之后将TCP 连接保持在打开状态,以便为未来的HTTP 请求重用现存的连接。在事务处理结束之后仍然保持在打开状态的TCP 连接被称为持久连接。非持久连接会在每个事务结束之后关闭。持久连接会在不同事务之间保持打开状态,直到客户端或服务器决定将其关闭为止。
持久以及并行连接
并行连接的缺点:
- 每个事务都会打开 / 关闭一条新的连接,会耗费时间和带宽。
- 由于 TCP 慢启动特性的存在,每条新连接的性能都会有所降低。
- 可打开的并行连接数量实际上是有限的。
持久连接与并行连接配合使用可能是最高效的方式。现在,很多Web 应用程序都会打开少量的并行连接,其中的每一个都是持久连接。持久连接有两种类型:比较老的HTTP/1.0+“keep-alive”连接,以及现代的HTTP/1.1“persistent”连接。
HTTP/1.0+ keep-alive连接
大约从1996 年开始,很多HTTP/1.0 浏览器和服务器都进行了扩展,以支持一种被称为keep-alive 连接的早期实验型持久连接。这些早期的持久连接受到了一些互操作性设计方面问题的困扰,这些问题在后期的HTTP/1.1 版本中都得到了修正,但很多客户端和服务器仍然在使用这些早期的keep-alive 连接。
Keep-Alive操作
keep-alive 已经不再使用了,而且在当前的HTTP/1.1 规范中也没有对它的说明了。但浏览器和服务器对keep-alive 握手的使用仍然相当广泛,因此,HTTP 的实现者应该做好与之进行交互操作的准备。现在我们来快速浏览一下keep-alive 的操作。对keep-alive 握手更详细的解释请参见较早的HTTP/1.1 规范版本。
实现HTTP/1.0 keep-alive 连接的客户端可以通过包含Connection: Keep-Alive首部请求将一条连接保持在打开状态。
如果服务器愿意为下一条请求将连接保持在打开状态,就在响应中包含相同的首部。如果响应中没有Connection: Keep-Alive 首部,客户端就认为服务器不支持keep-alive,会在发回响应报文之后关闭连接。
Keep-Alive选项
keep-Alive 首部只是请求将连接保持在活跃状态。发出keep-alive 请求之后,客户端和服务器并不一定会同意进行keep-alive 会话。它们可以在任意时刻关闭空闲的keep-alive 连接,并可随意限制keep-alive 连接所处理事务的数量。
可以用Keep-Alive 通用首部中指定的、由逗号分隔的选项来调节keep-alive 的行为。
-
参数 timeout 是在 Keep-Alive 响应首部发送的。它估计了服务器希望将连接保持在活跃状态的时间。这并不是一个承诺值。
-
参数 max 是在 Keep-Alive 响应首部发送的。它估计了服务器还希望为多少个事务保持此连接的活跃状态。这并不是一个承诺值。
-
Keep-Alive 首部还可支持任意未经处理的属性,这些属性主要用于诊断和调试。语法为name [=value]。
Keep-Alive 首部完全是可选的,但只有在提供Connection: Keep-Alive 时才能使用它。这里有个Keep-Alive 响应首部的例子,这个例子说明服务器最多还会为另外5 个事务保持连接的打开状态,或者将打开状态保持到连接空闲了2 分钟之后。
Connection: Keep-Alive
Keep-Alive: max=5, timeout=120
Keep-Alive连接的限制和规则
-
在 HTTP/1.0 中,keep-alive 并 不 是 默 认 使 用 的。 客 户 端 必 须 发 送 一 个Connection: Keep-Alive 请求首部来激活keep-alive 连接。
-
Connection: Keep-Alive 首部必须随所有希望保持持久连接的报文一起发送。如果客户端没有发送Connection: Keep-Alive 首部,服务器就会在那条请求之后关闭连接。
-
通过检测响应中是否包含 Connection: Keep-Alive 响应首部,客户端可以判断服务器是否会在发出响应之后关闭连接。
-
只有在无需检测到连接的关闭即可确定报文实体主体部分长度的情况下,才能将连接保持在打开状态——也就是说实体的主体部分必须有正确的Content-Length,有多部件媒体类型,或者用分块传输编码的方式进行了编码。在一条keep-alive 信道中回送错误的Content-Length 是很糟糕的事,这样的话,事务处理的另一端就无法精确地检测出一条报文的结束和另一条报文的开始了。
-
代理和网关必须执行 Connection 首部的规则。代理或网关必须在将报文转发出去或将其高速缓存之前,删除在Connection 首部中命名的所有首部字段以及Connection 首部自身。
-
严格来说,不应该与无法确定是否支持 Connection 首部的代理服务器建立keep-alive 连接,以防止出现下面要介绍的哑代理问题。在实际应用中不是总能做到这一点的。
-
从技术上来讲,应该忽略所有来自 HTTP/1.0 设备的 Connection 首部字段(包括Connection: Keep-Alive),因为它们可能是由比较老的代理服务器误转发的。但实际上,尽管可能会有在老代理上挂起的危险,有些客户端和服务器还是会违反这条规则。
-
除非重复发送请求会产生其他一些副作用,否则如果在客户端收到完整的响应之前连接就关闭了,客户端就一定要做好重试请求的准备。
Keep-Alive和哑代理
1. Connection首部和盲中继
问题出在代理上——尤其是那些不理解Connection 首部,而且不知道在沿着转发链路将其发送出去之前,应该将该首部删除的代理。很多老的或简单的代理都是盲中继(blind relay),它们只是将字节从一个连接转发到另一个连接中去,不对Connection 首部进行特殊的处理。
假设有一个Web 客户端正通过一个作为盲中继使用的哑代理与Web 服务器进行对话。
2. 代理和逐跳首部
为避免此类代理通信问题的发生,现代的代理都绝不能转发Connection 首部和所有名字出现在Connection 值中的首部。因此, 如果一个代理收到了一个Connection: Keep-Alive 首部,是不应该转发Connection 首部,或所有名为Keep-Alive 的首部的。
另外, 还有几个不能作为Connection 首部值列出, 也不能被代理转发或作为缓存响应使用的首部。其中包括Proxy-Authenticate、Proxy-Connection、Transfer-Encoding 和Upgrade。
插入Proxy-Connection
Netscape 的浏览器及代理实现者们提出了一个对盲中继问题的变通做法,这种做法并不要求所有的Web 应用程序支持高版本的HTTP。这种变通做法引入了一个名为Proxy-Connection 的新首部,解决了在客户端后面紧跟着一个盲中继所带来的问题——但并没有解决所有其他情况下存在的问题。在显式配置了代理的情况下,现代浏览器都实现了Proxy-Connection,很多代理都能够理解它。
问题是哑代理盲目地转发Connection: Keep-Alive 之类的逐跳首部惹出了麻烦。逐跳首部只与一条特定的连接有关,不能被转发。当下游服务器误将转发来的首部作为来自代理自身的请求解释,用它来控制自己的连接时,就会引发问题。
在网景的变通做法是,浏览器会向代理发送非标准的Proxy-Connection 扩展首部,而不是官方支持的著名的Connection 首部。如果代理是盲中继,它会将无意义的Proxy-Connection 首部转发给Web 服务器,服务器会忽略此首部,不会带来任何问题。但如果代理是个聪明的代理(能够理解持久连接的握手动作),就用一个Connection 首部取代无意义的Proxy-Connection 首部,然后将其发送给服务器,以收到预期的效果。
在客户端和服务器之间只有一个代理时可以用这种方案来解决问题。如果在哑代理的任意一侧还有一个聪明的代理,这个问题就会再次露头了。
HTTP/1.1持久连接
HTTP/1.1 逐渐停止了对keep-alive 连接的支持,用一种名为持久连接(persistentconnection)的改进型设计取代了它。持久连接的目的与keep-alive 连接的目的相同,但工作机制更优一些。
与HTTP/1.0+ 的keep-alive 连接不同,HTTP/1.1 持久连接在默认情况下是激活的。除非特别指明,否则HTTP/1.1 假定所有连接都是持久的。要在事务处理结束之后将连接关闭,HTTP/1.1 应用程序必须向报文中显式地添加一个Connection:close 首部。这是与以前的HTTP 协议版本很重要的区别,在以前的版本中,keepalive连接要么是可选的,要么根本就不支持。
HTTP/1.1 客户端假定在收到响应后,除非响应中包含了Connection: close 首部,不然HTTP/1.1 连接就仍维持在打开状态。但是,客户端和服务器仍然可以随时关闭空闲的连接。不发送Connection: close 并不意味着服务器承诺永远将连接保持在打开状态。
持久连接的限制和规则
-
发送了 Connection: close 请求首部之后,客户端就无法在那条连接上发送更多的请求了。
-
如果客户端不想在连接上发送其他请求了,就应该在最后一条请求中发送一个Connection: close 请求首部。
-
只有当连接上所有的报文都有正确的、自定义报文长度时——也就是说,实体主体部分的长度都和相应的Content-Length 一致,或者是用分块传输编码方式编码的——连接才能持久保持。
-
HTTP/1.1 的代理必须能够分别管理与客户端和服务器的持久连接——每个持久连接都只适用于一跳传输。
-
(由于较老的代理会转发 Connection 首部,所以)HTTP/1.1 的代理服务器不应该与HTTP/1.0 客户端建立持久连接,除非它们了解客户端的处理能力。实际上,这一点是很难做到的,很多厂商都违背了这一原则。
-
尽管服务器不应该试图在传输报文的过程中关闭连接,而且在关闭连接之前至少应该响应一条请求,但不管Connection 首部取了什么值,HTTP/1.1 设备都可以在任意时刻关闭连接。
-
HTTP/1.1 应用程序必须能够从异• 步的关闭中恢复出来。只要不存在可能会累积起来的副作用,客户端都应该重试这条请求
-
除非重复发起请求会产生副作用,否则如果在客户端收到整条响应之前连接关闭了,客户端就必须要重新发起请求
-
一个用户客户端对任何服务器或代理最多只能维护两条持久连接,以防服务器过载。代理可能需要更多到服务器的连接来支持并发用户的通信,所以,如果有N 个用户试图访问服务器的话,代理最多要维持2N 条到任意服务器或父代理的连接。
管道化连接
HTTP/1.1 允许在持久连接上可选地使用请求管道。这是相对于keep-alive 连接的又一性能优化。在响应到达之前,可以将多条请求放入队列。当第一条请求通过网络流向地球另一端的服务器时,第二条和第三条请求也可以开始发送了。在高时延网络条件下,这样做可以降低网络的环回时间,提高性能。
管道化连接的限制
- 如果 HTTP 客户端无法确认连接是持久的,就不应该使用管道。
-
必须按照与请求相同的顺序回送 HTTP 响应。HTTP 报文中没有序列号标签,因此如果收到的响应失序了,就没办法将其与请求匹配起来了。
-
HTTP 客户端必须做好连接会在任意时刻关闭的准备,还要准备好重发所有未完成的管道化请求。如果客户端打开了一条持久连接,并立即发出了10 条请求,服务器可能在只处理了,比方说,5 条请求之后关闭连接。剩下的5 条请求会失败,客户端必须能够应对这些过早关闭连接的情况,重新发出这些请求。
-
HTTP 客户端不应该用管道化的方式发送会产生副作用的请求(比如 POST)。总之,出错的时候,管道化方式会阻碍客户端了解服务器执行的是一系列管道化请求中的哪一些。由于无法安全地重试POST 这样的非幂等请求,所以出错时,就存在某些方法永远不会被执行的风险。
关闭连接的奥秘
“任意”解除连接
所有HTTP 客户端、服务器或代理都可以在任意时刻关闭一条TCP 传输连接。通常会在一条报文结束时关闭连接,但出错的时候,也可能在首部行的中间,或其他奇怪的地方关闭连接。
对管道化持久连接来说,这种情形是很常见的。HTTP 应用程序可以在经过任意一段时间之后,关闭持久连接。比如,在持久连接空闲一段时间之后,服务器可能会决定将其关闭。
但是,服务器永远都无法确定在它关闭“空闲”连接的那一刻,在线路那一头的客户端有没有数据要发送。如果出现这种情况,客户端就会在写入半截请求报文时发现出现了连接错误。
Content-Length及截尾操作
每条HTTP 响应都应该有精确的Content-Length 首部,用以描述响应主体的尺寸。一些老的HTTP 服务器会省略Content-Length 首部,或者包含错误的长度指示,这样就要依赖服务器发出的连接关闭来说明数据的真实末尾。
客户端或代理收到一条随连接关闭而结束的HTTP 响应,且实际传输的实体长度与Content-Length 并不匹配(或没有Content-Length)时,接收端就应该质疑长度的正确性。
如果接收端是个缓存代理,接收端就不应该缓存这条响应(以降低今后将潜在的错误报文混合起来的可能)。代理应该将有问题的报文原封不动地转发出去,而不应该试图去“校正”Content-Length,以维护语义的透明性。
连接关闭容限、重试以及幂等性
即使在非错误情况下,连接也可以在任意时刻关闭。HTTP 应用程序要做好正确处理非预期关闭的准备。如果在客户端执行事务的过程中,传输连接关闭了,那么,除非事务处理会带来一些副作用,否则客户端就应该重新打开连接,并重试一次。对管道化连接来说,这种情况更加严重一些。客户端可以将大量请求放入队列中排队,但源端服务器可以关闭连接,这样就会留下大量未处理的请求,需要重新调度。
副作用是很重要的问题。如果在发送出一些请求数据之后,收到返回结果之前,连接关闭了,客户端就无法百分之百地确定服务器端实际激活了多少事务。有些事务,比如GET 一个静态的HTML 页面,可以反复执行多次,也不会有什么变化。而其他一些事务,比如向一个在线书店POST 一张订单,就不能重复执行,不然会有下多张订单的危险。
如果一个事务,不管是执行一次还是很多次,得到的结果都相同,这个事务就是幂等的。实现者们可以认为GET、HEAD、PUT、DELETE、TRACE 和OPTIONS 方法都共享这一特性。客户端不应该以管道化方式传送非幂等请求(比如POST)。否则,传输连接的过早终止就会造成一些不确定的后果。要发送一条非幂等请求,就需要等待来自前一条请求的响应状态。
尽管用户Agent 代理可能会让操作员来选择是否对请求进行重试,但一定不能自动重试非幂等方法或序列。比如,大多数浏览器都会在重载一个缓存的POST 响应时提供一个对话框,询问用户是否希望再次发起事务处理。
正常关闭连接
TCP 连接是双向的。TCP 连接的每一端都有一个输入队列和一个输出队列,用于数据的读或写。放入一端输出队列中的数据最终会出现在另一端的输入队列中。
1. 完全关闭与半关闭
应用程序可以关闭TCP 输入和输出信道中的任意一个,或者将两者都关闭了。套接字调用close() 会将TCP 连接的输入和输出信道都关闭了。这被称作“完全关闭”,。还可以用套接字调用shutdown() 单独关闭输入或输出信道。这被称为“半关闭”。
2. TCP关闭及重置错误
简单的HTTP 应用程序可以只使用完全关闭。但当应用程序开始与很多其他类型的HTTP 客户端、服务器和代理进行对话且开始使用管道化持久连接时,使用半关闭来防止对等实体收到非预期的写入错误就变得很重要了。
总之,关闭连接的输出信道总是很安全的。连接另一端的对等实体会在从其缓冲区中读出所有数据之后收到一条通知,说明流结束了,这样它就知道你将连接关闭了。
关闭连接的输入信道比较危险,除非你知道另一端不打算再发送其他数据了。如果另一端向你已关闭的输入信道发送数据,操作系统就会向另一端的机器回送一条TCP“连接被对端重置”的报文,如图4-21 所示。大部分操作系统都会将这种情况作为很严重的错误来处理,删除对端还未读取的所有缓存数据。对管道化连接来说,这是非常糟糕的事情。
比如你已经在一条持久连接上发送了10 条管道式请求了,响应也已经收到了,正在操作系统的缓冲区中存着呢(但应用程序还未将其读走)。现在,假设你发送了第11 条请求,但服务器认为你使用这条连接的时间已经够长了,决定将其关闭。那么你的第11 条请求就会被发送到一条已关闭的连接上去,并会向你回送一条重置信息。这个重置信息会清空你的输入缓冲区当你最终要去读取数据的时候,会得到一个连接被对端重置的错误,已缓存的未读响应数据都丢失了,尽管其中的大部分都已经成功抵达你的机器了。
3. 正常关闭
HTTP 规范建议,当客户端或服务器突然要关闭一条连接时,应该“正常地关闭传输连接”,但它并没有说明应该如何去做。
总之,实现正常关闭的应用程序首先应该关闭它们的输出信道,然后等待连接另一端的对等实体关闭它的输出信道。当两端都告诉对方它们不会再发送任何数据(比如关闭输出信道)之后,连接就会被完全关闭,而不会有重置的危险。
但不幸的是,无法确保对等实体会实现半关闭,或对其进行检查。因此,想要正常关闭连接的应用程序应该先半关闭其输出信道,然后周期性地检查其输入信道的状态(查找数据,或流的末尾)。如果在一定的时间区间内对端没有关闭输入信道,应用程序可以强制关闭连接,以节省资源。