Linux网络

本质上是一种进程间通信方式,跨系统的进程间通信,
网络模型
国际标准化组织制定的开放式系统互联通信参考模型(Open System Interconnection Reference Model) OSI 网络模型。
OSI
为了解决网络互联中异构设备的兼容性问题,并解耦复杂的网络包处理流程,OSI 模型把网络互联的框架分为应用层、表示层、会话层、传输层、网络层、数据链路层以及物理层等七层
- 应用层,负责为应用程序提供统一的接口。
- 表示层,负责把数据转换成兼容接收系统的格式。
- 会话层,负责维护计算机之间的通信连接。
- 传输层,负责为数据加上传输表头,形成数据包。
- 网络层,负责数据的路由和转发。
- 数据链路层,负责 MAC 寻址、错误侦测和改错。
- 物理层,负责在物理网络中传输数据帧。
太复杂了,也没能提供一个可实现的方法。
TCP/IP
在 Linux 中,是另一个更实用的四层模型,即 TCP/IP 网络模型。把网络互联的框架分为应用层、传输层、网络层、网络接口层等四层,其 中,
- 应用层,负责向用户提供一组应用程序,比如 HTTP、FTP、DNS 等。
- 传输层,负责端到端的通信,比如 TCP、UDP 等。
- 网络层,负责网络包的封装、寻址和路由,比如 IP、ICMP 等。
- 网络接口层,负责网络包在物理网络中的传输,比如 MAC 寻址、错误侦测以及通过网卡 传输网络帧等。
七层和四层负载均衡
七层和四层负载均衡,对应的分别是 OSI 模型中的应用层和传输层(而它们对应到 TCP/IP 模型中,实际上是四层http和三层TCP)。
Linux 网络栈
在进行网络传输时,数据包会按照协议栈,对上一层发来的数据进 行逐层处理;然后封装上该层的协议头,再发送给下一层。 当然,网络包在每一层的处理逻辑,都取决于各层采用的网络协议。
在应用层,一个提供 REST API 的应用,可以使用 HTTP 协议,把它需要传输的 JSON 数据封装到 HTTP 协 议中,然后向下传递给 TCP 层。封装做的事情就是在原来的负载前后,增加固定格式的元数据,原始的负载 数据并不会被修改。
- 传输层在应用程序数据前面增加了 TCP 头;
- 网络层在 TCP 数据包前增加了 IP 头;
- 而网络接口层,又在 IP 数据包前后分别增加了帧头和帧尾。
这些新增的头部和尾部,增加了网络包的大小,但我们都知道,物理链路中并不能传输任意大小的数据包。网络接口配置的最大传输单元(MTU),就规定了最大的 IP 包大小。在我们最常用的以太网中,MTU 默认值是 1500(这也是 Linux 的默认值)。一旦网络包超过 MTU 的大小,就会在网络层分片,以保证分片后的 IP 包不大于 MTU 值。显然,MTU 越大,需要的分包也就越少,自然,网络吞吐能力就越好。
Linux 内核中的网络 栈,其实也类似于 TCP/IP 的四层结构:
- 最上层的应用程序,需要通过系统调用,来跟套接字接口进行交互;
- 套接字的下面,就是我们前面提到的传输层、网络层和网络接口层;
- 最底层,则是网卡驱动程序以及物理网卡设备。
网卡是发送和接收网络包的基本设备。在系统启动过程中,网卡通过内核中的网卡驱动程序注册到系统中。而在网络收发过程中,内核通过中断跟网卡进行交互。网卡硬中断只处理最核心的网卡数据读取或发送,而协议栈中的大部分逻辑,都会放到软中断中处理。
以物理网卡为例的Linux 网络收发流程
Linux 还支持众多的虚拟网络设备,它们的网络收发流程会有一些差别。
网络包的接收流程

- 当一个网络帧到达网卡后,网卡会通过 DMA 方式,把这个网络包放到收包队列中;然后通过硬中断,告诉中断处理程序已经收到了网络包。
- 网卡中断处理程序会为网络帧分配内核数据结构(sk_buff),并将其拷贝到 sk_buff 缓冲区中;然后再通过软中断,通知内核收到了新的网络帧。
- 内核协议栈从缓冲区中取出网络帧,并通过网络协议栈,从下到上逐层处理这个网络帧。
- 链路层检查报文的合法性,找出上层协议的类型(比如 IPv4 还是 IPv6),再去掉帧头、帧尾,然后交给网络层。
- 网络层取出 IP 头,判断网络包下一步的走向,比如是交给上层处理还是转发。当网络层 确认这个包是要发送到本机后,就会取出上层协议的类型(比如 TCP 还是 UDP),去掉 IP 头,再交给传输层处理。
- 传输层取出 TCP 头或者 UDP 头后,根据 < 源 IP、源端口、目的 IP、目的端口 > 四元 组作为标识,找出对应的 Socket,并把数据拷贝到 Socket 的接收缓存中。
- 应用程序就可以使用 Socket 接口,读取到新接收到的数据了。
网络包的发送流程
- 应用程序调用 Socket API(比如 sendmsg)发送网络包。
- 由于这是一个系统调用,所以会陷入到内核态的套接字层中。套接字层会把数据包放到 Socket 发送缓冲区中。 网络协议栈从 Socket 发送缓冲区中,取出数据包;再按照 TCP/IP 栈,从上到下逐层处理。比如,传输层和网络层,分别为其增加 TCP 头和 IP 头,执行路由查找确认下一跳的 IP,并按照 MTU 大小进行分片。
- 分片后的网络包,再送到网络接口层,进行物理地址寻址,以找到下一跳的 MAC 地址。然后添加帧头和帧尾,放到发包队列中。
- 软中断通知驱动程序:发包队列中有新的网络帧需要发送。
- 驱动程序通过 DMA ,从发包队列中读出网络帧,并通过物理网卡把它发送出去。
性能指标
- 带宽,表示链路的最大传输速率,单位通常为 b/s (比特 / 秒)。
- 网卡确定后,带宽也就确定 了(当然,实际带宽会受限于整个网络链路中最小的那个模块)
- 吞吐量,表示单位时间内成功传输的数据量,单位通常为 b/s(比特 / 秒)或者 B/s(字 节 / 秒)。吞吐量受带宽限制,而吞吐量 / 带宽,也就是该网络的使用率。
- 很多地方听说过“网络带宽测试”,这里测试的实际上不是带宽,而是网络 吞吐量。Linux 服务器的网络吞吐量一般会比带宽小,而对交换机等专门的网络设备来说, 吞吐量一般会接近带宽。
- 延时,表示从网络请求发出后,一直到收到远端响应,所需要的时间延迟。在不同场景 中,这一指标可能会有不同含义。比如,它可以表示,建立连接需要的时间(比如 TCP 握手延时),或一个数据包往返所需的时间(比如 RTT)。
- PPS,是 Packet Per Second(包 / 秒)的缩写,表示以网络包为单位的传输速率。PPS 通常用来评估网络的转发能力,比如硬件交换机,通常可以达到线性转发(即 PPS 可以 达到或者接近理论最大值)。而基于 Linux 服务器的转发,则容易受网络包大小的影 响。通常用在需要大量转发的场景中。而 对 TCP 或者 Web 服务来说,更多会用并发连接数和每秒请求数(QPS,Query per Second)等指标,它们更能反应实际应用程序的性能。
- 除了这些指标,网络的可用性(网络能否正常通信)、并发连接数(TCP 连接数量)、丢 包率(丢包百分比)、重传率(重新传输的网络包比例)等也是常用的性能指标。
查看网络接口的配置和状态ip 或 ifconfig
ifconfig 或者 ip 命令,来查看网络的配置。
ifconfig 和 ip 分别属于软件包 net-tools 和 iproute2,iproute2 是 nettools 的下一代。

都包括了网络接口的状态标志、MTU 大小、IP、子网、MAC 地址以及网络包收发的统 计信息。
- 网络接口的状态标志。ifconfig 输出中的 RUNNING ,或 ip 输出中的 LOWER_UP ,都表示物理网络是连通的,即网卡已经连接到了交换机或者路由器中。如果你看不到它 们,通常表示网线被拔掉了。
- MTU 的大小。MTU 默认大小是 1500,可能需要调大或者调小 MTU 的数值。
- 网络接口的 IP 地址、子网以及 MAC 地址。
- 网络收发的字节数、包数、错误数以及丢包情况,特别是 TX 和 RX 部分的 errors、 dropped、overruns、carrier 以及 collisions 等指标不为 0 时,通常表示出现了网络 I/O 问题。其中:
- errors 表示发生错误的数据包数,比如校验错误、帧同步错误等;
- dropped 表示丢弃的数据包数,即数据包已经收到了 Ring Buffer,但因为内存不足等 原因丢包;
- overruns 表示超限数据包数,即网络 I/O 速度过快,导致 Ring Buffer 中的数据包来不 及处理(队列满)而导致的丢包;
- carrier 表示发生 carrirer 错误的数据包数,比如双工模式不匹配、物理电缆出现问题 等;
- collisions 表示碰撞数据包数。
套接字信息netstat 或 ss
用 netstat 或者 ss ,来查看套接字、网络栈、网络接口以及路由表的信息。
使用 ss 来查询网络的连接信息,因为它比 netstat 提供了更好的性能(速 度更快)。
head -n 3 表示只显示前面 3 行
-l 表示只显示监听套接字
-n 表示显示数字地址和端口 (而不是名字)
-p 表示显示进程信息

-l 表示只显示监听套接字
-t 表示只显示 TCP 套接字
-n 表示显示数字地址和端口 (而不是名字)
-p 表示显示进程信息

都展示了套接字的状态、接收队列、发送队列、本地地 址、远端地址、进程 PID 和进程名称等。
接收队列和发送队列
- 接收队列(Recv-Q)和发送队列(Send-Q)通常应该是 0。当你发现它们不是 0 时,说明有网络包的堆积发生。在不同套接字状态 下,它们的含义不同。
- 当套接字处于连接状态(Established)时,Recv-Q 表示套接字缓冲还没有被应用程序取走的字节数(即接收队列长度)。而 Send-Q 表示还没有被远端主机确认的字节数(即发送队列长度)。
- 当套接字处于监听状态(Listening)时,Recv-Q 表示 syn backlog 的当前值。而 Send-Q 表示最大的 syn backlog 值。而 syn backlog 是 TCP 协议栈中的半连接队列长度,相应的也有一个全连接队列(accept queue),它们都是维护 TCP 状态的重要机制。
半连接和全连接
半连接,就是还没有完成 TCP 三次握手的连接,连接只进行了一半,而服务器收到了客户端的 SYN 包后,就会把这个连接放到半连接队列中,然后再向客户端发送 SYN+ACK 包。
全连接,则是指服务器收到了客户端的 ACK,完成了 TCP 三次握手,然后就会把这个连 接挪到全连接队列中。这些全连接中的套接字,还需要再被 accept() 系统调用取走,这 样,服务器就可以开始真正处理客户端的请求了。
协议栈统计信息 netstat 或 ss


ss 只显示已经连接、关闭、孤儿套接字等简要统计,而 netstat 则提供的是更详细的网络协议栈信息。
netstat 的输出示例,就展示了 TCP 协议的主动连接、被动连接、失败重试、 发送和接收的分段数量等各种信息。
网络吞吐和 PPS sar -n DEV 1
给 sar 增加 -n 参数就可以查看网络的统计信息,比如网络接口(DEV)、网络接口错误 (EDEV)、TCP、UDP、ICMP 等等。
数字 1 表示每隔 1 秒输出一组数据

- rxpck/s 和 txpck/s 分别是接收和发送的 PPS,单位为包 / 秒。
- rxkB/s 和 txkB/s 分别是接收和发送的吞吐量,单位是 KB/ 秒。
- rxcmp/s 和 txcmp/s 分别是接收和发送的压缩数据包数,单位是包 / 秒。
Bandwidth 可以用 ethtool 来查询,它的单位通常是 Gb/s 或者 Mb/s,不过注意 这里小写字母 b ,表示比特而不是字节。我们通常提到的千兆网卡、万兆网卡等,单位也 都是比特。

连通性和延时ping
ping ,来测试远程主机的连通性和延时,而这基于 ICMP 协议。
-c3 表示发送三次 ICMP 包后停止

- 每个 ICMP 请求的信息,包括 ICMP 序列号(icmp_seq)、TTL(生存时 间,或者跳数)以及往返延时。
- 三次 ICMP 请求的汇总。
C10K 和 C1000K
C 是 Client 的缩写。C10K 就是单机同时处理 1 万个请 求(并发连接 1 万)的问题,而 C1000K 也就是单机支持处理 100 万个请求(并发连接 100 万)的问题。
C10K 问题的根源,一方面在于系统有限的资源;另一方面,是同步阻 塞的 I/O 模型以及轮询的套接字接口,限制了网络事件的处理效率。Linux 2.6 中引入的 epoll ,完美解决了 C10K 的问题,现在的高性能网络方案都基于 epoll。
从 C10K 到 C100K ,可能只需要增加系统的物理资源就可以满足;
但从 C100K 到 C1000K ,就不仅仅是增加物理资源就能解决的问题了。从硬件的中断处理和网络功能卸载、到网络协议栈的文件描述符数量、连接状态跟踪、 缓存队列等内核的优化,再到应用程序的工作模型优化,都是考虑的重点。
实现 C10M ,就不只是增加物理资源,或者优化内核和应用程序可以解决的问题了。这时候,就需要用 XDP 的方式,在内核协议栈之前处理网络包;或者用 DPDK 直 接跳过网络协议栈,在用户空间通过轮询的方式直接处理网络包。
实际上,在大多数场景中,我们并不需要单机并发 1000 万的请求。通过调整系统 架构,把这些请求分发到多台服务器中来处理,通常是更简单和更容易扩展的方案。
C10K 问题
C10K 问题最早由 Dan Kegel 在 1999 年提出。那时的服务器还只是 32 位系统,运行着 Linux 2.2 版本(后来又升级到了 2.4 和 2.6,而 2.6 才支持 x86_64),只配置了很少的内 存(2GB)和千兆网卡。
对 2GB 内存和千兆网卡的服务器来说,同时处理 10000 个请求,只要每个请求处理占用不到 200KB(2GB/10000)的内存和 100Kbit (1000Mbit/10000)的网络带宽就可以。物理资源是足够的,接下来自然是软件的问题,特别是网络的 I/O 模型问题。
网络IO模型概念
文件 I/O与网络 I/O 模型类 似。
在 C10K 以前,Linux 中网络处理都用同步阻塞的方式,也就是每个请求都分配一个进程或者线程。进程或线程的调度、上下文切换乃至它们占用的内存,都会成为瓶颈。
- 在一个线程内响应多个网络 I/O。是不是可以用非阻塞 I/O 或者异步 I/O 来处理多个网络请求呢?
- 用更少的线程来服务这些请求。是不是可以继续用原来的 100 个或者更少的线程,来服务现在的 10000 个请求呢?
两种 I/O 事件通知的方式:水平触发和边缘触发
它们常用 在套接字接口的文件描述符中。
- 水平触发:只要文件描述符可以非阻塞地执行 I/O ,就会触发通知。也就是说,应用程序可以随时检查文件描述符的状态,然后再根据状态,进行 I/O 操作。
- 边缘触发:只有在文件描述符的状态发生改变(也就是 I/O 请求达到)时,才发送一次 通知。这时候,应用程序需要尽可能多地执行 I/O,直到无法继续读写,才可以停止。如果 I/O 没执行完,或者因为某种原因没来得及处理,那么这次通知也就丢失了。
C10K 问题--网络IO模型优化--多路复用
1. 使用非阻塞 I/O 和水平触发通知,比如使用 select 或者 poll。
select 和 poll 需要从文件描述符列表中,找出哪些可以执行 I/O ,然后进行真正的网络 I/O 读写。由于 I/O 是非阻塞的,一个线程中就可以同时监控 一批套接字的文件描述符,这样就达到了单线程处理多请求的目的。
- 优点:对应用程序比较友好,它的 API 非常简单。
- 缺点:应用软件使用 select 和 poll 时,需要对这些文件描述符列表进行轮询,这样,请求数多的时候就会比较耗时。
- select 使用固定长度的位相量,表示文件描述符的集合,因此会有最大描述符数量的限制。比如,在 32 位系统中,默认限制是 1024。并且,在 select 内部,检查套接字状态是用轮询的方法,再加上应用软件使用时的轮询,就变成了一个 O(n^2) 的关系。
- poll 改进了 select 的表示方法,换成了一个没有固定长度的数组,这样就没有了最大描 述符数量的限制(当然还会受到系统文件描述符限制)。但应用程序在使用 poll 时,同样 需要对文件描述符列表进行轮询,这样,处理耗时跟描述符数量就是 O(N) 的关系。
- 每次调用 select 和 poll 时,还需要把文件描述符的集合,从用户空间 传入内核空间,由内核修改后,再传出到用户空间中。这一来一回的内核空间与用户空间切 换,也增加了处理成本。
2. 使用非阻塞 I/O 和边缘触发通知,比如 epoll。
epoll 使用红黑树,在内核中管理文件描述符的集合,这样,就不需要应用程序在每次操 作时都传入、传出这个集合。
epoll 使用事件驱动的机制,只关注有 I/O 事件发生的文件描述符,不需要轮询扫描整个 集合。
epoll 是在 Linux 2.6 中才新增的功能(2.4 虽然也有,但功能不完善)。
边缘触发只在文件描述符可读或可写事件发生时才通知,那么应用程序就需要尽可能多地执行 I/O,并要处理更多的异常事件。
3. 使用异步 I/O(Asynchronous I/O,简称为 AIO)
异步 I/O 允许应用程序同时发起很多 I/O 操作,而不用等待这些操作完成。而在 I/O 完成后,系统会用事件通知(比如信号或者回 调函数)的方式,告诉应用程序。这时,应用程序才会去查询 I/O 操作的结果。
异步 I/O 也是到了 Linux 2.6 才支持的功能,并且在很长时间里都处于不完善的状态,比如 glibc 提供的异步 I/O 库,就一直被社区诟病。同时,由于异步 I/O 跟我们的直观逻辑不太 一样,想要使用的话,一定要小心设计,其使用难度比较高。
工作模型优化
主进程 + 多个 worker 子进程
- 主进程执行 bind() + listen() 后,创建多个子进程;初始化套接字,并管理子进程的生命周期
- 每个子进程中,都通过 accept() 或 epoll_wait() ,来处理相同的套接字。负责实际的请求处理。
最常用的反向代理服务器 Nginx 就是这么工作的。
accept() 和 epoll_wait() 调用,还存在一个惊群的问题。换句话说,当网络 I/O 事件发生时,多个进程被同时唤醒,但实际上只有一个进程来响应这个事件,其他被唤 醒的进程都会重新休眠。
accept() 的惊群问题,已经在 Linux 2.6 中解决了; 而 epoll 的问题,到了 Linux 4.5 ,才通过 EPOLLEXCLUSIVE 解决。
为了避免惊群问题, Nginx 在每个 worker 进程中,都增加一个了全局锁 (accept_mutex)。这些 worker 进程需要首先竞争到锁,只有竞争到锁的进程,才会加入到 epoll 中,这样就确保只有一个 worker 子进程被唤醒。
为什么使用多进程模式的 Nginx ,却具有非常好的性能呢?
进程的管理、调度、上下文切换的成本 非常高。
这些 worker 进程,实际上并不需要经常创建和销毁,而是在没任务时休眠,有任务时唤醒。只有在 worker 由于某些异常退出时,主进程才需要创建新 的进程来代替它。
也可以用线程代替进程:主线程负责套接字初始化和子线程状态的管理,而子线程 则负责实际的请求处理。由于线程的调度和切换成本比较低,实际上你可以进一步把 epoll_wait() 都放到主线程中,保证每次事件都只唤醒主线程,而子线程只需要负责后续的 请求处理。
监听到相同端口的多进程模型
所有的进程都监听相同的接口,并且开启 SO_REUSEPORT 选项,由内核负责将请求负载均衡到这些监听进程中去。
由于内核确保了只有一个进程被唤醒,就不会出现惊群问题了。比如,Nginx 在 1.9.1 中就 已经支持了这种模式。
不过要注意,想要使用 SO_REUSEPORT 选项,需要用 Linux 3.9 以上的版本才可以。
C100K
基于 I/O 多路复用和请求处理的优化,C10K 问题很容易就可以解决。
随着摩尔定律 带来的服务器性能提升,C100K 和 C1000K,也就是并发从原 来的 1 万增加到 10 万、乃至 100 万。
还是基于 C10K 的这些理 论,epoll 配合线程池,再加上 CPU、内存和网络接口的性能和容量提升。大部分情况下, C100K 很自然就可以达到。
C1000K
首先从物理资源使用上来说,100 万个请求需要大量的系统资源。比如,假设每个请求需要 16KB 内存的话,那么总共就需要大约 15 GB 内存。而从带宽上来说,假设只有 20% 活跃连接,即使每个连接只需要 1KB/s 的吞吐量,总共 也需要 1.6 Gb/s 的吞吐量。千兆网卡显然满足不了这么大的吞吐量,所以还需要配置万 兆网卡,或者基于多网卡 Bonding 承载更大的吞吐量。
其次,从软件资源上来说,大量的连接也会占用大量的软件资源,比如文件描述符的数量、 连接状态的跟踪(CONNTRACK)、网络协议栈的缓存大小(比如套接字读写缓存、TCP 读写缓存)等等。
最后,大量请求带来的中断处理,也会带来非常高的处理成本。这样,就需要多队列网卡、 中断负载均衡、CPU 绑定、RPS/RFS(软中断负载均衡到多个 CPU 核上),以及将网络包 的处理卸载(Offload)到网络设备(如 TSO/GSO、LRO/GRO、VXLAN OFFLOAD)等 各种硬件和软件的优化。
C1000K 的解决方法,本质上还是构建在 epoll 的非阻塞 I/O 模型上。只不过,除了 I/O 模型之外,还需要从应用程序到 Linux 内核、再到 CPU、内存和网络等各个层次的深度优 化,特别是需要借助硬件,来卸载那些原来通过软件处理的大量功能。
C10M
在单机中,同时处理 1000 万的请求呢?在 C1000K 问题中,各种软件、硬件的优化很可能都已经做到头了。特别是当升 级完硬件(比如足够多的内存、带宽足够大的网卡、更多的网络功能卸载等)后,你可能会 发现,无论你怎么优化应用程序和内核中的各种网络参数,想实现 1000 万请求的并发,都 是极其困难的。 究其根本,还是 Linux 内核协议栈做了太多太繁重的工作。从网卡中断带来的硬中断处理 程序开始,到软中断中的各层网络协议处理,最后再到应用程序,这个路径实在是太长了, 就会导致网络包的处理优化,到了一定程度后,就无法更进一步了。
要解决这个问题,最重要就是跳过内核协议栈的冗长路径,把网络包直接送到要处理的应用 程序那里去。这里有两种常见的机制,DPDK 和 XDP。
- DPDK,是用户态网络的标准。它跳过内核协议栈,直接由用户态进程通过轮 询的方式,来处理网络接收。

(图片来自 https://blog.selectel.com/introduction-dpdk-architecture-principles/)
轮询低效是因是查询时间明显多于实际工作时间的情况,如果每 时每刻都有新的网络包需要处理,轮询的优势就很明显了。
在 PPS 非常高的场景中,查询时间比实际工作时间少了很多,绝大部分时间都在处理网 络包;
而跳过内核协议栈后,就省去了繁杂的硬中断、软中断再到 Linux 网络协议栈逐层处理 的过程,应用程序可以针对应用的实际场景,有针对性地优化网络包的处理逻辑,而不需 要关注所有的细节。
此外,DPDK 还通过大页、CPU 绑定、内存对齐、流水线并发等多种机制,优化网络包的 处理效率。
- XDP(eXpress Data Path),则是 Linux 内核提供的一种高性能网络数据路 径。它允许网络包,在进入内核协议栈之前,就进行处理,也可以带来更高的性能。XDP 底层基于 Linux 内核的 eBPF 机制实现的。

(图片来自 https://www.iovisor.org/technology/xdp) XDP 对内核的要求比较高,需要的是 Linux 4.8 以上版本,并且它也不提供 缓存队列。基于 XDP 的应用程序通常是专用的网络应用,常见的有 IDS(入侵检测系 统)、DDoS 防御、 cilium 容器网络插件等。
posted on 2025-10-12 21:35 chuchengzhi 阅读(15) 评论(0) 收藏 举报
浙公网安备 33010602011771号