深入浅出Netty:Netty 服务端创建

深入浅出Netty:Netty 服务端创建

当我们直接使用 JDK NIO 的类库开发基于 NIO 的异步服务端时,需要使用到多路复用器 Selector、ServerSocketChannel、SocketChannel、ByteBuffer、SelectionKey 等等,相比于传统的 BIO 开发,NIO 的开发要复杂很多,开发出稳定、高性能的异步通信框架,一直是个难题。

Netty 为了向使用者屏蔽 NIO 通信的底层细节,在和用户交互的边界做了封装,目的就是为了减少用户开发工作量,降低开发难度。ServerBootstrap 是 Socket 服务端的启动辅助类,用户通过 ServerBootstrap 可以方便的创建 Netty 的服务端。

2.1 Netty服务端创建时序图

步骤 1:创建 ServerBootstrap 实例。ServerBootstrap 是 Netty 服务端的

启动辅助类,它提供了一系列的方法用于设置服务端启动相关的参数。底层通过

门面模式对各种能力进行抽象和封装,尽量不需要用户跟过多的底层 API 打交道,

降低用户的开发难度。

深入浅出Netty:Netty 服务端创建

图 2-1 Netty 服务端创建时序图

我们在创建 ServerBootstrap 实例时,会惊讶的发现 ServerBootstrap 只有一个无参的构造函数,作为启动辅助类这让人不可思议,因为它需要与多个其它组件或者类交互。ServerBootstrap 构造函数没有参数的根本原因是因为它的参数太多了,而且未来也可能会发生变化,为了解决这个问题,就需要引入 Builder 模式。《Effective Java》第二版第 2 条建议遇到多个构造器参数时要考虑用构建器,关于多个参数构造函数的缺点和使用构建器的优点大家可以查阅《Effective Java》, 在此不再详述。

步骤 2: 设置并绑定 Reactor 线程池。Netty 的 Reactor 线程池是EventLoopGroup,它实际就是 EventLoop 的数组。EventLoop 的职责是处理所有注册到本线程多路复用器 Selector 上的 Channel,Selector 的轮询操作由绑定的 EventLoop 线程 run 方法驱动,在一个循环体内循环执行。值得说明的是,EventLoop 的职责不仅仅是处理网络 I/O 事件,用户自定义的 Task 和定时任务Task 也统一由 EventLoop 负责处理,这样线程模型就实现了统一。从调度层面看,也不存在在 EventLoop 线程中再启动其它类型的线程用于异步执行其它的任务,这样就避免了多线程并发操作和锁竞争,提升了 I/O 线程的处理和调度性能。

步骤 3:设置并绑定服务端Channel。作为NIO服务端,需要创建ServerSocketChannel, Netty 对原生的 NIO 类库进行了封装, 对应实现是NioServerSocketChannel。对于用户而言,不需要关心服务端 Channel 的底层实现细节和工作原理,只需要指定具体使用哪种服务端 Channel 即可。因此,Netty 的 ServerBootstrap 方法提供了 channel 方法用于指定服务端 Channel 的类型。Netty 通过工厂类,利用反射创建 NioServerSocketChannel 对象。由于服务端监听端口往往只需要在系统启动时才会调用,因此反射对性能的影响并不大。相关代码如下所示:

深入浅出Netty:Netty 服务端创建

步骤 4:链路建立的时候创建并初始化 ChannelPipeline。ChannelPipeline 并不是 NIO 服务端必需的,它本质就是一个负责处理网络事件的职责链,负责管理和执行ChannelHandler。网络事件以事件流的形式在ChannelPipeline中流转,由ChannelPipeline 根据 ChannelHandler 的执行策略调度 ChannelHandler 的执行。典型的网络事件如下:

1. 链路注册;

2. 链路激活;

3. 链路断开;

4. 接收到请求消息;

5. 请求消息接收并处理完毕;

6. 发送应答消息;

7. 链路发生异常;

8. 发生用户自定义事件。

步骤 5:初始化 ChannelPipeline 完成之后,添加并设置 ChannelHandler。

ChannelHandler 是 Netty 提供给用户定制和扩展的关键接口。利用 ChannelHandler 用户可以完成大多数的功能定制,例如消息编解码、心跳、安全认证、TSL/SSL 认证、流量控制和流量整形等。Netty 同时也提供了大量的系统 ChannelHandler 供用户使用,比较实用的系统 ChannelHandler 总结如下:

1. 系统编解码框架-ByteToMessageCodec;

2. 通用基于长度的半包解码器-LengthFieldBasedFrameDecoder;

3. 码流日志打印Handler-LoggingHandler;

4. SSL安全认证Handler-SslHandler;

5. 链路空闲检测Handler-IdleStateHandler;

6. 流量整形Handler-ChannelTrafficShapingHandler;

7. Base64编解码-Base64Decoder和Base64Encoder。

创建和添加 ChannelHandler 的代码示例如下:

深入浅出Netty:Netty 服务端创建

步骤 6:绑定并启动监听端口。在绑定监听端口之前系统会做一系列的初始化和检测工作,完成之后,会启动监听端口,并将 ServerSocketChannel 注册到Selector 上监听客户端连接,相关代码如下:

深入浅出Netty:Netty 服务端创建

步骤 7:Selector 轮询。由 Reactor 线程 NioEventLoop 负责调度和执行 Selector 轮询操作,选择准备就绪的 Channel 集合,相关代码如下:

深入浅出Netty:Netty 服务端创建

步骤 8: 当轮询到准备就绪的 Channel 之后,就由 Reactor 线程 NioEventLoop 执行 ChannelPipeline 的相应方法,最终调度并执行 ChannelHandler,代码如下:

深入浅出Netty:Netty 服务端创建

步骤 9: 执行 Netty 系统 ChannelHandler 和用户添加定制的 ChannelHandler。ChannelPipeline 根据网络事件的类型,调度并执行 ChannelHandler,相关代码如下所示:

深入浅出Netty:Netty 服务端创建

2.2 Netty服务端创建源码分析

首先通过构造函数创建 ServerBootstrap 实例,随后,通常会创建两个EventLoopGroup(并不是必须要创建两个不同的 EventLoopGroup,也可以只创建一个并共享),代码如下所示:

深入浅出Netty:Netty 服务端创建

NioEventLoopGroup 实际就是 Reactor 线程池,负责调度和执行客户端的接入、网络读写事件的处理、用户自定义任务和定时任务的执行。通过 ServerBootstrap 的 group 方法将两个 EventLoopGroup 实例传入,代码如下:

深入浅出Netty:Netty 服务端创建

其中父 NioEventLoopGroup 被传入了父类构造函数中:

深入浅出Netty:Netty 服务端创建

该方法会被客户端和服务端重用,用于执行和调度网络事件的读写。线程组和线程类型设置完成后,需要设置服务端Channel,Netty通过Channel工厂类来创建不同类型的Channel,对于服务端,需要创建NioServerSocketChannel, 所以,通过指定 Channel 类型的方式创建 Channel 工厂。ServerBootstrapChannelFactory 是 ServerBootstrap 的 内 部 静 态 类, 职责是根据 Channel 的类型通过反射创建 Channel 的实例,服务端需要创建的是NioServerSocketChannel 实例,代码如下:

深入浅出Netty:Netty 服务端创建

指定 NioServerSocketChannel 后,需要设置 TCP 的一些参数,作为服务端,主要是要设置 TCP 的 backlog 参数,底层 C 的对应接口定义如下:

int listen(int fd, int backlog);

backlog 指定了内核为此套接口排队的最大连接个数,对于给定的监听套接口,内核要维护两个队列,未链接队列和已连接队列,根据 TCP 三路握手过程中三个分节来分隔这两个队列。backlog 被规定为两个队列总和的最大值,大多数实现默认值为 5,但在高并发 web 服务器中此值显然不够,lighttpd 中此值达到 128*8。需要设置此值更大一些的原因是未完成连接队列的长度可能因为客户端 SYN 的到达及等待三路握手第三个分节的到达延时而增大。Netty 默认的 backlog 为 100,当然,用户可以修改默认值,用户需要根据实际场景和网络状况进行灵活设置。

TCP 参数设置完成后,用户可以为启动辅助类和其父类分别指定 Handler,两类 Handler 的用途不同,子类中的 Hanlder 是 NioServerSocketChannel 对应的 ChannelPipeline 的 Handler,父类中的 Hanlder 是客户端新接入的连接 SocketChannel 对应的ChannelPipeline 的 Handler。两者的区别可以通过下图来展示:

深入浅出Netty:Netty 服务端创建

图2-2 ServerBootstrap的Hanlder模型

本质区别就是:ServerBootstrap 中的 Handler 是 NioServerSocketChannel 使用的,所有连接该监听端口的客户端都会执行它,父类 AbstractBootstrap 中的 Handler 是个工厂类,它为每个新接入的客户端都创建一个新的 Handler。

服务端启动的最后一步,就是绑定本地端口,启动服务,下面我们来分析下这部分代码:

深入浅出Netty:Netty 服务端创建

先看下 NO.1, 首先创建 Channel,createChannel 由子类 ServerBootstrap 实现,创建新的 NioServerSocketChannel,它有两个参数,参数 1 是从父类的 NIO 线程池中顺序获取一个 NioEventLoop,它就是服务端用于监听和接收客户端连接的 Reactor 线程。第二个参数就是所谓的 workerGroup 线程池,它就是处理 IO 读写的 Reactor 线程组 , 相关代码如下:

深入浅出Netty:Netty 服务端创建

NioServerSocketChannel 创建成功后对它进行初始化,初始化工作主要有三点。

设置 Socket 参数和 NioServerSocketChannel 的附加属性,代码如下:

深入浅出Netty:Netty 服务端创建

将 AbstractBootstrap 的 Handler 添加到 NioServerSocketChannel 的ChannelPipeline 中,代码如下:

深入浅出Netty:Netty 服务端创建

将用于服务端注册的 Handler ServerBootstrapAcceptor 添加到 ChannelPipeline 中,代码如下:

深入浅出Netty:Netty 服务端创建

到此处,Netty服务端监听的相关资源已经初始化完毕,就剩下最后一步 - 注册NioServerSocketChannel 到 Reactor 线程的多路复用器上, 然后轮询客户端连接事件。在分析注册代码之前,我们先通过下图看看目前 NioServerSocketChannel 的ChannelPipeline 的组成:

深入浅出Netty:Netty 服务端创建

最后,我们看下 NioServerSocketChannel 的注册。当 NioServerSocketChannel

初始化完成之后,需要将它注册到 Reactor 线程的多路复用器上监听新客户端的接

入,代码如下:

首先判断是否是 NioEventLoop 自身发起的操作,如果是,则不存在并发操作,

直接执行 Channel 注册;如果由其它线程发起,则封装成一个 Task 放入消息队

列中异步执行。此处,由于是由 ServerBootstrap 所在线程执行的注册操作,所

以会将其封装成 Task 投递到 NioEventLoop 中执行,代码如下:

深入浅出Netty:Netty 服务端创建

深入浅出Netty:Netty 服务端创建

将NioServerSocketChannel注册到NioEventLoop的Selector上,代码如下:

深入浅出Netty:Netty 服务端创建

大伙儿可能会很诧异,应该注册 OP_ACCEPT(16)到多路复用器上,怎么注册 0 呢? 0 表示只注册,不监听任何网络操作。这样做的原因如下:

注册方法是多态的,它既可以被 NioServerSocketChannel 用来监听客户端的连接接入,也可以用来注册 SocketChannel,用来监听网络读或者写操作;

通过 SelectionKey 的 interestOps(int ops) 方法可以方便的修改监听操作位。所以,此处注册需要获取 SelectionKey 并给 AbstractNioChannel 的成员变量 selectionKey 赋值。

注册成功之后,触发 ChannelRegistered 事件,方法如下:

深入浅出Netty:Netty 服务端创建

Netty 的 HeadHandler 不需要处理 ChannelRegistered 事件,所以,直接调用下一个 Handler, 代码如下:

深入浅出Netty:Netty 服务端创建

当 ChannelRegistered 事件传递到 TailHandler 后结束,TailHandler 也不关心 ChannelRegistered 事件,因此是空实现,代码如下:

深入浅出Netty:Netty 服务端创建

ChannelRegistered 事件传递完成后,判断 ServerSocketChannel 监听是否成功,如果成功,需要出发 NioServerSocketChannel 的 ChannelActive 事件,代码如下:

深入浅出Netty:Netty 服务端创建

isActive() 也是个多态方法,如果是服务端,判断监听是否启动,如果是客户端,判断 TCP 连接是否完成。ChannelActive 事件在 ChannelPipeline 中传递,完成之后根据配置决定是否自动触发 Channel 的读操作,代码如下:

深入浅出Netty:Netty 服务端创建

AbstractChannel 的读操作触发 ChannelPipeline 的读操作,最终调用到 HeadHandler 的读方法,代码如下:

深入浅出Netty:Netty 服务端创建

继续看 AbstractUnsafe 的 beginRead 方法,代码如下:

深入浅出Netty:Netty 服务端创建

由于不同类型的 Channel 对读操作的准备工作不同,因此,beginRead 也是个多态方法,对于 NIO 通信,无论是客户端还是服务端,都是要修改网络监听操作位为自身感兴趣的,对于 NioServerSocketChannel 感兴趣的操作是 OP_ACCEPT(16),于是重新修改注册的操作位为 OP_ACCEPT,代码如下:

在某些场景下,当前监听的操作类型和 Chanel 关心的网络事件是一致的,不需要重复注册,所以增加了 & 操作的判断,只有两者不一致,才需要重新注册操作位。

JDK SelectionKey 有四种操作类型,分别为:

深入浅出Netty:Netty 服务端创建

• OP_READ = 1 << 0;

• OP_WRITE = 1 << 2;

• OP_CONNECT = 1 << 3;

• OP_ACCEPT = 1 << 4。

由于只有四种网络操作类型,所以用 4 bit 就可以表示所有的网络操作位,由于 JAVA 语言没有 bit 类型,所以使用了整形来表示,每个操作位代表一种网络操作类型,分别为:0001、0010、0100、1000, 这样做的好处是可以非常方便的通过位操作来进行网络操作位的状态判断和状态修改,提升操作性能。

由于创建 NioServerSocketChannel 将 readInterestOp 设置成了 OP_ACCEPT,所以,在服务端链路注册成功之后重新将操作位设置为监听客户端的网络连接操作,初始化 NioServerSocketChannel 的代码如下:

深入浅出Netty:Netty 服务端创建

到此,服务端监听启动部分源码已经分析完成,接下来,让我们继续分析一个新的客户端是如何接入的。

2.3 客户端接入源码分析

负责处理网络读写、连接和客户端请求接入的Reactor线程就是 NioEventLoop, 下 面 我 们分析下 NioEventLoop 是如何处理新的客户端连接接入的。当多路复用器检测到新的准备就绪的Channel时,默认执行 processSelectedKeysOptimized 方法,代码如下:

深入浅出Netty:Netty 服务端创建

由于 Channel 的 Attachment 是 NioServerSocketChannel, 所以执行processSelectedKey 方法,根据就绪的操作位,执行不同的操作,此处,由于监听的是连接操作,所以执行 unsafe.read() 方法,由于不同的 Channel 执行不同的操作,所以 NioUnsafe 被设计成接口,由不同的 Channel 内部的 NioUnsafe 实现类负责具体实现,我们发现 read() 方法的实现有两个,分别是 NioByteUnsafe 和 NioMessageUnsafe, 对于 NioServerSocketChannel,它使用的是 NioMessageUnsafe,它的 read 方法代码如下:

深入浅出Netty:Netty 服务端创建

对 doReadMessages 方法进行分析,发现它实际就是接收新的客户端连接并创建 NioSocketChannel 代码如下:

深入浅出Netty:Netty 服务端创建

接收到新的客户端连接后,触发 ChannelPipeline 的 ChannelRead 方法,代码如下:

深入浅出Netty:Netty 服务端创建

执行 headChannelHandlerContext 的 fireChannelRead 方 法, 事件在ChannelPipeline 中传递,执行 ServerBootstrapAcceptor 的 channelRead 方法, 代码如下。

该方法包含三个主要步骤:

第一步:将启动时传入的 childHandler 加入到客户端 SocketChannel 的 ChannelPipeline 中;

第二步:设置客户端 SocketChannel 的 TCP 参数;

第三步:注册 SocketChannel 到多路复用器。

channelRead 主要执行如上图所示的三个方法,下面我们展开看下 NioSocketChannel 的register 方法,代码如下所示。

深入浅出Netty:Netty 服务端创建

NioSocketChannel 的注册方法与 ServerSocketChannel 的一致, 也是将Channel注册到 Reactor 线程的多路复用器上,由于注册的操作位是 0,所以,此时 NioSocketChannel 还不能读取客户端发送的消息,那什么时候修改监听操作位为 OP_READ 呢,别着急,继续看代码。

执行完注册操作之后,紧接着会触发 ChannelReadComplete 事件,我们继 续 分 析 ChannelReadComplete 在 ChannelPipeline 中 的 处 理 流 程:Netty的 Header 和 Tail 本身不关注 ChannelReadComplete 事件就直接透传,执行完 ChannelReadComplete 后,接着执行 PipeLine 的 read()方法,最终执行 HeadHandler 的 read()方法,代码如下:

深入浅出Netty:Netty 服务端创建

后面的代码已经在之前的小节已经介绍过,用来修改网络操作位为读操作,创建 NioSocketChannel 的时候已经将 AbstractNioChannel 的 readInterestOp设 置 为 OP_READ, 这 样, 执 行 selectionKey.interestOps(interestOps|readInterestOp) 操作时就会把操作位设置为 OP_READ。代码如下:

深入浅出Netty:Netty 服务端创建

到此,新接入的客户端连接处理完成,可以进行网络读写等 I/O 操作。

相关推荐