1 概述

1.1 原生NIO存在的问题  

  NIO 的类库和 API 繁杂,使用麻烦:需要熟练掌握 Selector、ServerSocketChannel、 SocketChannel、ByteBuffer等。

  需要具备其他的额外技能:要熟悉 Java 多线程编程,因为 NIO 编程涉及到 Reactor 模式,必须对多线程和网络编程非常熟悉,才能编写出高质量的 NIO 程序。 

  开发工作量和难度都非常大:例如客户端面临断连重连、网络闪断、半包读写、失败缓存、网络拥 塞和异常流的处理等等。

  JDK NIO 的 Bug:臭名昭著的 Epoll Bug,它会导致 Selector 空轮询,终导致 CPU 100%。直到 JDK 1.7版本该问题仍旧存在,没有被根本解决。

  在NIO中通过Selector的轮询当前是否有IO事件,根据JDK NIO api描述,Selector的select方 法会一直阻塞,直到IO事件达到或超时,但是在Linux平台上这里有时会出现问题,在某些场 景下select方法会直接返回,即使没有超时并且也没有IO事件到达,这就是著名的epoll bug,这是一个比较严重的bug,它会导致线程陷入死循环,会让CPU飙到100%,极大地影 响系统的可靠性,到目前为止,JDK都没有完全解决这个问题。

1.2 简介

  Netty 是由 JBOSS 提供的一个 Java 开源框架。Netty 提供异步的、基于事件驱动的网络应用程序框 架,用以快速开发高性能、高可靠性的网络 IO 程序。 Netty 是一个基于 NIO 的网络编程框架,使用 Netty 可以帮助你快速、简单的开发出一 个网络应用,相当于简化和流程化了 NIO 的开发过程。 作为 当前流行的 NIO 框架,Netty 在互联网领域、大数据分布式计算领域、游戏行业、 通信行业等获得了 广泛的应用,知名的 Elasticsearch 、Dubbo 框架内部都采用了 Netty。

  Netty 的强大之处:零拷贝、可拓展事件模型;支持 TCP、UDP、HTTP、 WebSocket 等协议;提供安全传输、压缩、大文件传输、编解码支持等等。

1.3 优点

设计优雅,提供阻塞和非阻塞的 Socket;提供灵活可拓展的事件模型;提供高度可定制的线程模 型。

具备更高的性能和更大的吞吐量,使用零拷贝技术小化不必要的内存复制,减少资源的消耗。

提供安全传输特性。

支持多种主流协议;预置多种编解码功能,支持用户开发私有协议。 

2. 线程模型

  目前存在的线程模型有:

  ·传统阻塞 I/O 服务模型

  ·Reactor 模型

  根据 Reactor 的数量和处理资源池线程的数量不同,有 3  种典型的实现

   ·单 Reactor 单线程

  ·单 Reactor  多线程

  ·主从 Reactor  多线程

2.1 传统阻塞 I/O 服务模型

  采用阻塞 IO 模式获取输入的数据, 每个连接都需要独立的线程完成数据的输入 , 业务处理和数据返回 工作.

 

 存在问题:当并发很大,就会创建大量线程,占用很大系统资源,连接创建后,如果当前线程暂时没有数据可读,该线程会阻塞在read操作,造成线程资源浪费。

2.2 Reactor 模型

  Reactor 模式,通过一个或多个输入同时传递给服务处理器的模式 , 服务器端程序处理传入的多个 请求,并将它们同步分派到相应的处理线程, 因此 Reactor 模式也叫 Dispatcher模式. Reactor 模式使用 IO 复用监听事件, 收到事件后,分发给某个线程(进程), 这点就是网络服务器高并发处理关键. 

  单Reactor单线程

 

 Selector是可以实现应用程序通过一个阻塞对象监听多路连接请求。

Reactor 对象通过 Selector监控客户端请求事件,收到事件后通过 Dispatch 进行分发。

是建立连接请求事件,则由 Acceptor 通过 Accept 处理连接请求,然后创建一个 Handler 对 象处理连接完成后的后续业务处理。

Handler 会完成 Read→业务处理→Send 的完整业务流程。

优点:

模型简单,没有多线程、进程通信、竞争的问题,全部都在一个线程中完成

缺点:
1. 性能问题: 只有一个线程,无法完全发挥多核 CPU 的性能。Handler 在处理某个连接上的业务时, 整个进程无法处理其他连接事件,很容易导致性能瓶颈。

2. 可靠性问题: 线程意外终止或者进入死循环,会导致整个系统通信模块不可用,不能接收和处 理外部消息,造成节点故障。

  单Reactor多线程

 

 

 Reactor 对象通过 selector 监控客户端请求事件, 收到事件后,通过 dispatch 进行分发。

如果建立连接请求, 则右 Acceptor 通过accept 处理连接请求。

如果不是连接请求,则由 reactor 分发调用连接对应的 handler 来处理。

handler 只负责响应事件,不做具体的业务处理, 通过 read 读取数据后,会分发给后面的 worker 线程池的某个线程处理业务。

worker 线程池会分配独立线程完成真正的业务,并将结果返回给 handler。

handler 收到响应后,通过 send 将结果返回给 client。

优点:    

可以充分的利用多核 cpu 的处理能力

缺点:  

多线程数据共享和访问比较复杂, reactor 处理所有的事件的监听和响应,在单线程运行, 在 高并发场景容易出现性能瓶颈 。

 主从 Reactor  多线程

 

 

Reactor 主线程 MainReactor 对象通过 select 监听客户端连接事件,收到事件后,通过 Acceptor 处理客户端连接事件。

当 Acceptor 处理完客户端连接事件之后(与客户端建立好 Socket 连接),MainReactor 将 连接分配给 SubReactor。(即:MainReactor 只负责监听客户端连接请求,和客户端建立连 接之后将连接交由 SubReactor 监听后面的 IO 事件)。

SubReactor 将连接加入到自己的连接队列进行监听,并创建 Handler 对各种事件进行处理 。

当连接上有新事件发生的时候,SubReactor 就会调用对应的 Handler 处理。

Handler 通过 read 从连接上读取请求数据,将请求数据分发给 Worker 线程池进行业务处理。

Worker 线程池会分配独立线程来完成真正的业务处理,并将处理结果返回给 Handler。 Handler 通过 send 向客户端发送响应数据 。

一个 MainReactor 可以对应多个 SubReactor,即一个 MainReactor 线程可以对应多个 SubReactor 线程

  优点:

1. MainReactor 线程与 SubReactor 线程的数据交互简单职责明确,MainReactor 线程只需要 接收新连接,SubReactor 线程完成后续的业务处理

2. MainReactor 线程与 SubReactor 线程的数据交互简单, MainReactor 线程只需要把新连接 传给 SubReactor 线程,SubReactor 线程无需返回数据

3. 多个 SubReactor 线程能够应对更高的并发请求

缺点:  这种模式的缺点是编程复杂度较高。但是由于其优点明显,在许多项目中被广泛使用,包括 Nginx、Memcached、Netty 等。这种模式也被叫做服务器的 1+M+N 线程模式,即使用该模式开 发的服务器包含一个(或多个,1 只是表示相对较少)连接建立线程+M 个 IO 线程+N 个业务处理 线程。这是业界成熟的服务器程序设计模式。

2.3 netty线程模型

  主要基于主从Reactor 多线程模式,并做了一定的改进。 

 

 Netty 抽象出两组线程池:BossGroup 和 WorkerGroup,也可以叫做 BossNioEventLoopGroup 和 WorkerNioEventLoopGroup。每个线程池中都有 NioEventLoop 线程。BossGroup 中的线程专门负责和客户端建立连接,WorkerGroup 中的 线程专门负责处理连接上的读写。BossGroup 和 WorkerGroup 的类型都是 NioEventLoopGroup 。

NioEventLoopGroup 相当于一个事件循环组,这个组中含有多个事件循环,每个事件循环就 是一个 NioEventLoop。

NioEventLoop 表示一个不断循环的执行事件处理的线程,每个 NioEventLoop 都包含一个 Selector,用于监听注册在其上的 Socket 网络连接(Channel)。

NioEventLoopGroup 可以含有多个线程,即可以含有多个 NioEventLoop 每个 BossNioEventLoop 中循环执行以下三个步骤 select:轮训注册在其上的 ServerSocketChannel 的 accept 事件(OP_ACCEPT 事件) ,processSelectedKeys:处理 accept 事件,与客户端建立连接,生成一个 NioSocketChannel,并将其注册到某个 WorkerNioEventLoop 上的 Selector 上, runAllTasks:再去以此循环处理任务队列中的其他任务 。

每个 WorkerNioEventLoop 中循环执行以下三个步骤 select:轮训注册在其上的 NioSocketChannel 的 read/write 事件 (OP_READ/OP_WRITE 事件), processSelectedKeys:在对应的 NioSocketChannel 上处理 read/write 事件, runAllTasks:再去以此循环处理任务队列中的其他任务。

在以上两个processSelectedKeys步骤中,会使用 Pipeline(管道),Pipeline 中引用了 Channel,即通过 Pipeline 可以获取到对应的 Channel,Pipeline 中维护了很多的处理器 (拦截处理器、过滤处理器、自定义处理器等)。

2.4 核心API介绍

   ·ChannelHandler及其实现类

  ChannelHandler 接口定义了许多事件处理的方法,我们可以通过重写这些方法去实现具 体的业务逻 辑。

  Netty开发中需要自定义一个 Handler 类去实现 ChannelHandle接口或其子接口或其实现类,然后 通过重写相应方法实现业务逻辑,我们接下来看看一般都需要重写哪些方法
public void channelActive(ChannelHandlerContext ctx),通道就绪事件 public void channelRead(ChannelHandlerContext ctx, Object msg),通道读取数据事件 public void channelReadComplete(ChannelHandlerContext ctx) ,数据读取完毕事件 public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause),通道发生异常事 件

  · ChannelPipeline 

  ChannelPipeline 是一个 Handler 的集合,它负责处理和拦截 inbound 或者 outbound 的事件和 操作,相当于一个贯穿 Netty 的责任链. 

   如果客户端和服务器的Handler是一样的,消息从客户端到服务端或者反过来,每个Inbound类型 或Outbound类型的Handler只会经过一次,混合类型的Handler(实现了Inbound和Outbound的 Handler)会经过两次。准确的说ChannelPipeline中是一个ChannelHandlerContext,每个上下文对象 中有ChannelHandler.  InboundHandler是按照Pipleline的加载顺序的顺序执行, OutboundHandler 是按照Pipeline的加载顺序,逆序执行。

  ·ChannelHandlerContext

  这 是 事 件 处 理 器 上 下 文 对 象 , Pipeline 链 中 的 实 际 处 理 节 点 。 每 个 处 理 节 点 ChannelHandlerContext 中 包 含 一 个 具 体 的 事 件 处 理 器 ChannelHandler ,同时 ChannelHandlerContext 中也绑定了对应的 ChannelPipeline和 Channel 的信息,方便对 ChannelHandler 进行调用。常用方法如下所示: ChannelFuture close(),关闭通道 ChannelOutboundInvoker flush(),刷新 ChannelFuture writeAndFlush(Object msg) , 将 数 据 写 到 ChannelPipeline 中 当 前 ChannelHandler 的下一个 ChannelHandler 开始处理(出站) 。

  · ChannelOption 

  Netty 在创建 Channel 实例后,一般都需要设置 ChannelOption 参数。ChannelOption 是 Socket 的标 准参数,而非 Netty 独创的。常用的参数配置有:
  ChannelOption.SO_BACKLOG 对应 TCP/IP 协议 listen 函数中的 backlog 参数,用来初始化服务器可连接队列大小。服务端处理 客户端连接请求是顺序处理的,所以同一时间只能处理一个客户端连接。多个客户 端来的时候,服 务端将不能处理的客户端连接请求放在队列中等待处理,backlog 参数指定 了队列的大小。              ChannelOption.SO_KEEPALIVE ,一直保持连接活动状态。该参数用于设置TCP连接,当设置该选 项以后,连接会测试链接的状态,这个选项用于可能长时间没有数据交流的连接。当设置该选项以 后,如果在两小时内没有数据的通信时,TCP会自动发送一个活动探测数据报文。

  · ChannelFuture 

  表示 Channel 中异步 I/O 操作的结果,在 Netty 中所有的 I/O 操作都是异步的,I/O 的调用会直接返 回,调用者并不能立刻获得结果,但是可以通过 ChannelFuture 来获取 I/O 操作 的处理状态。 常用方法如下所示:
Channel channel(),返回当前正在进行 IO 操作的通道 ChannelFuture sync(),等待异步操作执行完毕,将异步改为同步。

  ·EventLoopGroup和实现类NioEventLoopGroup 

  EventLoopGroup 是一组 EventLoop 的抽象,Netty 为了更好的利用多核 CPU 资源,一般 会有多个 EventLoop 同时工作,每个 EventLoop 维护着一个 Selector 实例。  

  EventLoopGroup 提供 next 接口,可以从组里面按照一定规则获取其中一个 EventLoop 来处理任 务。在 Netty 服务器端编程中,我们一般都需要提供两个 EventLoopGroup,例如: BossEventLoopGroup 和 WorkerEventLoopGroup。 通常一个服务端口即一个 ServerSocketChannel 对应一个Selector 和一个EventLoop线程。 BossEventLoop 负责接收客户端的连接并将 SocketChannel 交给 WorkerEventLoopGroup 来进 行 IO 处理。

  BossEventLoopGroup 通常是一个单线程的 EventLoop,EventLoop 维护着一个注册了 ServerSocketChannel 的 Selector 实例,BossEventLoop 不断轮询 Selector 将连接事件分离出来, 通 常是 OP_ACCEPT 事件,然后将接收到的 SocketChannel 交给 WorkerEventLoopGroup, WorkerEventLoopGroup 会由 next 选择其中一个 EventLoopGroup 来将这个 SocketChannel 注
册到其维护的 Selector 并对其后续的 IO 事件进行处理。 一般情况下我们都是用实现类NioEventLoopGroup.
常用方法如下所示: public NioEventLoopGroup(),构造方法,创建线程组 public Future<?> shutdownGracefully(),断开连接,关闭线程

  ·ServerBootstrap和Bootstrap 

   ServerBootstrap 是 Netty 中的服务器端启动助手,通过它可以完成服务器端的各种配置; Bootstrap 是 Netty 中的客户端启动助手,通过它可以完成客户端的各种配置。常用方法如下 所示: public ServerBootstrap group(EventLoopGroup parentGroup, EventLoopGroup childGroup), 该方法用于服务器端,用来设置两个 EventLoop public B group(EventLoopGroup group) ,该方法用于客户端,用来设置一个 EventLoop public B channel(Class<? extends C> channelClass),该方法用来设置一个服务器端的通道 实现 public  B option(ChannelOption option, T value),用来给 ServerChannel 添加配置 public  ServerBootstrap childOption(ChannelOption childOption, T value),用来给接收到的通 道添加配置 public ServerBootstrap childHandler(ChannelHandler childHandler),该方法用来设置业务 处 理类(自定义的 handler) public ChannelFuture bind(int inetPort) ,该方法用于服务器端,用来设置占用的端口号 public ChannelFuture connect(String inetHost, int inetPort) ,该方法用于客户端,用来连 接服 务器端 

  · Unpooled

  这是 Netty 提供的一个专门用来操作缓冲区的工具类,常用方法如下所示:
public static ByteBuf copiedBuffer(CharSequence string, Charset charset),通过给定的数据 和 字符编码返回一个 ByteBuf 对象(类似于 NIO 中的 ByteBuffer 对象)。

 

3. netty高级应用 

3.1 编解码器

  编码(Encode)称为序列化, 它将对象序列化为字节数组,用于网络传输、数据持久化或者其它 用途。

    解码(Decode)称为反序列化,它把从网络、磁盘等读取的字节数组还原成原始对象(通常是原 始对象的拷贝),以方便后续的业务逻辑操作。

  java序列化对象只需要实现java.io.Serializable接口并生成序列化ID,这个类就能够通过 java.io.ObjectInput和java.io.ObjectOutput序列化和反序列化。

  Java序列化目的:1.网络传输。2.对象持久化。

   Java序列化缺点:1.无法跨语言。 2.序列化后码流太大。3.序列化性能太低。  

Java序列化仅仅是Java编解码技术的一种,由于它的种种缺陷,衍生出了多种编解码技术和框 架,这些编解码框架实现消息的高效序列化。 

3.2 netty编解码器

   在网络应用中需要实现某种编解码器,将原始字节数据与自定义的消息对象进行互相转换。网络 中都是以字节码的数据形式来传输数据的,服务器编码数据后发送到客户端,客户端需要对数据进 行解码。

  对于Netty而言,编解码器由两部分组成:编码器、解码器。

  解码器:负责将消息从字节或其他序列形式转成指定的消息对象。

   编码器:将消息对象转成字节或其他序列形式在网络上传输。    

  Netty 的编(解)码器实现了 ChannelHandlerAdapter,也是一种特殊的 ChannelHandler,所 以依赖于 ChannelPipeline,可以将多个编(解)码器链接在一起,以实现复杂的转换逻辑。

   Netty里面的编解码: 解码器:负责处理“入站 InboundHandler”数据。  编码器:负责“出站 OutboundHandler” 数据。 

/*** 消息解码-可以将字符串消息进行在进行解码. 只有消息入站时才会进行解码*/

public class MessageDecoder extends MessageToMessageDecoder<ByteBuf> {    

@Override    

protected void decode(ChannelHandlerContext ctx, ByteBuf in, List<Object> out) throws Exception {            System.out.println("正在进行消息解码");      

     out.add(in.toString(CharsetUtil.UTF_8));  

 } }

  

/*** 编码器 */

public class MessageEncoder extends MessageToMessageEncoder<String> {    

@Override    

protected void encode(ChannelHandlerContext ctx, String msg, List<Object> out) throws Exception {            System.out.println("消息进行消息编码");        

    out.add(Unpooled.copiedBuffer(msg, CharsetUtil.UTF_8));  

} }

 3.3 粘包和拆包的解决方案

  粘包和拆包是TCP网络编程中不可避免的,无论是服务端还是客户端,当我们读取或者发送消息 的时候,都需要考虑TCP底层的粘包/拆包机制。  

   TCP是个“流”协议,所谓流,就是没有界限的一串数据。TCP底层并不了解上层业务数据的具体含 义,它会根据TCP缓冲区的实际情况进行包的划分,所以在业务上认为,一个完整的包可能会被TCP拆分 成多个包进行发送,也有可能把多个小的包封装成一个大的数据包发送,这就是所谓的TCP粘包和拆包 问题。

   TCP粘包和拆包产生的原因:  数据从发送方到接收方需要经过操作系统的缓冲区,而造成粘包和拆包的主要原因就在这个缓冲区 上。粘包可以理解为缓冲区数据堆积,导致多个请求数据粘在一起,而拆包可以理解为发送的数据大于 缓冲区,进行拆分处理。 

  解决方案:

     Netty提供了4种解码器来解决,分别如下:

  固定长度的拆包器 FixedLengthFrameDecoder,每个应用层数据包的都拆分成都是固定长度 的大小。

   行拆包器 LineBasedFrameDecoder,每个应用层数据包,都以换行符作为分隔符,进行分割 拆分。

   分隔符拆包器 DelimiterBasedFrameDecoder,每个应用层数据包,都通过自定义的分隔 符,进行分割拆分。

  基于数据包长度的拆包器 LengthFieldBasedFrameDecoder,将应用层数据包的长度,作为 接收端应用层数据包的拆分依据。按照应用层数据包的大小,拆包。这个拆包器,有一个要 求,就是应用层协议中包含数据包的长度 。

 

posted on 2021-08-01 17:53  jeolyli  阅读(114)  评论(0编辑  收藏  举报