游戏服务器中的Netty应用以及源码解析
发布时间:2023-02-27 14:28:11 所属栏目:系统 来源:
导读:最近因为工作需要,学习了一段时间Netty的源码,并做了一个简单的分享,研究还不是特别深入,继续努力。因为分享也不涉及公司业务,所以这里也把这次对源码的研究成果分享出来 以下都是在游戏服务器开发中针对Netty使
最近因为工作需要,学习了一段时间Netty的源码,并做了一个简单的分享,研究还不是特别深入,继续努力。因为分享也不涉及公司业务,所以这里也把这次对源码的研究成果分享出来 以下都是在游戏服务器开发中针对Netty使用需要了解知识点以及相关优化 这次分享主要设计以下内容 1 cat /proc/sys/net/ipv4/ip_local_port_range 文件描述符资源 系统级:当前系统可打开的最大数量,通过 cat /proc/sys/fs/file-max 查看 用户级:指定用户可打开的最大数量,通过 cat /etc/security/limits.conf 查看 进程级:单个进程可打开的最大数量,通过 cat /proc/sys/fs/nr_open 查看 线程资源 BIO/NIO 1. BIO模型 所有操作都是同步阻塞(accept,read) 客户端连接数与服务器线程数比例是1:1 2. NIO模型 非阻塞IO 通过selector实现可以一个线程管理多个连接 通过selector的事件注册(OP_READ/OP_WRITE/OP_CONNECT/OP_ACCEPT),处理自己感兴趣的事件 客户端连接数与服务器线程数比例是n:1 3. Reacor模型 ①. 单Reacor单线程模型 所有IO在同一个NIO线程完成(处理连接,分派请求,编码,解码,逻辑运算,发送) 单线程处理大量链路时,性能无法支撑,不能合理利用多核处理 线程过载后,处理速度变慢,会导致消息积压 一旦线程挂掉,整个通信层不可用 redis使用的就是reactor单进程模型,redis由于都是内存级操作,所以使用此模式没什么问题 Netty对应实现方式 // Netty对应实现方式:创建io线程组是,boss和worker,使用同一个线程组,并且线程数为1 EventLoopGroup ioGroup = new NioEventLoopGroup(1); b.group(ioGroup, ioGroup) .channel(NioServerSocketChannel.class) .childHandler(initializer); ChannelFuture f = b.bind(portNumner); cf = f.sync(); f.get(); ②. 单Reactor多线程模型 根据单线程模型,io处理中最耗时的编码,解码,逻辑运算等cpu消耗较多的部分,可提取出来使用多线程实现,并充分利用多核cpu的优势 Netty对应实现方式 // Netty对应实现方式:创建io线程组是,boss和worker,使用同一个线程组,并且线程数为1,把逻辑运算部分投递到用户自定义线程处理 EventLoopGroup ioGroup = new NioEventLoopGroup(1); b.group(ioGroup, ioGroup) .channel(NioServerSocketChannel.class) .childHandler(initializer); ChannelFuture f = b.bind(portNumner); cf = f.sync(); f.get(); ③. 主从Reactor多线程模型 根据多线程模型,可把它的性能瓶颈做进一步优化,即把reactor由单个改为reactor线程池,把原来的reactor分为mainReactor和subReactor 解决单Reactor的性能瓶颈问题(Netty/Nginx采用这种设计) Netty对应实现方式 // Netty对应实现方式:创建io线程组boss和worker,boss线程数为1,work线程数为cpu*2(一般IO密集可设置为2倍cpu核数) EventLoopGroup bossGroup = new NioEventLoopGroup(1); EventLoopGroup workerGroup = new NioEventLoopGroup(); b.group(bossGroup, workerGroup) .channel(NioServerSocketChannel.class) .childHandler(initializer); ChannelFuture f = b.bind(portNumner); cf = f.sync(); f.get(); ④. 部分源码分析 创建group实例 // 1.构造参数不传或传0,默认取系统参数配置,没有参数配置,取CPU核数*2 super(nThreads == 0 ? DEFAULT_EVENT_LOOP_THREADS : nThreads, executor, args); private static final int DEFAULT_EVENT_LOOP_THREADS; static { DEFAULT_EVENT_LOOP_THREADS = Math.max(1, SystemPropertyUtil.getInt( "io.netty.eventLoopThreads", NettyRuntime.availableProcessors() * 2)); } // 2.不同版本的JDK会有不同版本的SelectorProvider实现,Windows下的是WindowsSelectorProvider public NioEventLoopGroup(int nThreads, Executor executor) { //默认selector,最终实现类似:https://github.com/frohoff/jdk8u-jdk/blob/master/src/macosx/classes/sun/nio/ch/DefaultSelectorProvider.java //basic flow: 1 java.nio.channels.spi.SelectorProvider 2 META-INF/services 3 default this(nThreads, executor, SelectorProvider.provider()); } // 3.创建nThread个EventExecutor,并封装到选择器chooser,chooser会根据线程数分别有两种实现(GenericEventExecutorChooser和PowerOfTwoEventExecutorChooser,算法不同,但实现逻辑一样,就是均匀的分配线程处理) EventExecutorChooserFactory.EventExecutorChooser chooser; children = new EventExecutor[nThreads]; for (int i = 0; i < nThreads; i ++) { // ... children[i] = newChild(executor, args); // ... } chooser = chooserFactory.newChooser(children); 设置group // 两种方式设置group // parent和child使用同一个group,调用仍然是分别设置parent和child @Override public ServerBootstrap group(EventLoopGroup group) { return group(group, group); } ServerBootstrap.group(EventLoopGroup parentGroup, EventLoopGroup childGroup){ // 具体代码略,可直接参考源码 // 里面实现内容是把parentGroup绑定到this.group,把childGroup绑定到this.childGroup } Netty启动 // 调用顺序 ServerBootstrap:bind() -> doBind() -> initAndRegister() private ChannelFuture doBind(final SocketAddress localAddress) { final ChannelFuture regFuture = initAndRegister(); // ... doBind0(regFuture, channel, localAddress, promise); // ... } final ChannelFuture initAndRegister() { // 创建ServerSocketChannel Channel channel = channelFactory.newChannel(); // ... // 开始register ChannelFuture regFuture = config().group().register(channel); // register调用顺序 // next().register(channel) -> (EventLoop) super.next() -> chooser.next() // ... } 由以上源码可得知,bind只在起服调用一次,因此bossGroup仅调用一次regist,也就是仅调用一次next,因此只有一根线程是有用的,其余线程都是废弃的,所以bossGroup线程数设置为1即可 // 启动BossGroup线程并绑定本地SocketAddress private static void doBind0( final ChannelFuture regFuture, final Channel channel, final SocketAddress localAddress, final ChannelPromise promise) { channel.eventLoop().execute(new Runnable() { @Override public void run() { if (regFuture.isSuccess()) { channel.bind(localAddress, promise).addListener(ChannelFutureListener.CLOSE_ON_FAILURE); } else { promise.setFailure(regFuture.cause()); } } }); } 客户端连接 // 消息事件读取 NioEventLoop.run() -> processSelectedKeys() -> ... -> ServerBootstrapAcceptor.channelRead // ServerBootstrapAcceptor.channelRead处理客户端连接事件 // 最后一行的childGroup.register的逻辑和上面的代码调用处一样 public void channelRead(ChannelHandlerContext ctx, Object msg) { child.pipeline().addLast(childHandler); setChannelOptions(child, childOptions, logger); setAttributes(child, childAttrs); childGroup.register(child) } 二、select/poll和epoll 1.概念 select(时间复杂度O(n)):用一个fd数组保存所有的socket,然后通过死循环遍历调用操作系统的select方法找到就绪的fd while(1) { nready = select(list); // 用户层依然要遍历,只不过少了很多无效的系统调用 for(fd <-- fdlist) { if(fd != -1) { // 只读已就绪的文件描述符 read(fd, buf); // 总共只有 nready 个已就绪描述符,不用过多遍历 if(--nready == 0) break; } } } poll(时间复杂度O(n)):同select,不过把fd数组换成了fd链表,去掉了fd最大连接数(1024个)的数量限制 epoll(时间复杂度O(1)):解决了select/poll的几个缺陷 调用需传入整个fd数组或fd链表,需要拷贝数据到内核 内核层需要遍历检查文件描述符的就绪状态 内核仅返回可读文件描述符个数,用户仍需自己遍历所有fd epoll是操作系统基于事件关联fd,做了以下优化: 内核中保存一份文件描述符集合,无需用户每次都重新传入,只需告诉内核修改的部分即可。(epoll_ctl) 内核不再通过轮询的方式找到就绪的文件描述符,而是通过异步 IO 事件唤醒。(epoll_wait) 内核仅会将有 IO 事件的文件描述符返回给用户,用户也无需遍历整个文件描述符集合。 epoll仅在Linux系统上支持 2.jdk提供selector // DefaultSelectorProvider.create方法在不同版本的jdk下有不同实现,创建不同Selector // Windows版本的jdk,其实现中调用的是native的poll方法 public static SelectorProvider create() { return new WindowsSelectorProvider(); } // Linux版本的jdk public static SelectorProvider create() { String str = (String)AccessController.doPrivileged(new GetPropertyAction("os.name")); if (str.equals("SunOS")) { return createProvider("sun.nio.ch.DevPollSelectorProvider"); } if (str.equals("Linux")) { return createProvider("sun.nio.ch.EPollSelectorProvider"); } return new PollSelectorProvider(); } 3.Netty提供的Epoll封装 netty依然基于epoll做了一层封装,主要做了以下事情: (1)java的nio默认使用水平触发,Netty的Epoll默认使用边缘触发,且可配置 边缘触发:当状态变化时才会发生io事件。 水平触发:只要满足条件,就触发一个事件(只要有数据没有被获取,内核就不断通知你) (2)Netty的Epoll提供更多的nio的可配参数。 (3)调用c代码,更少gc,更少synchronized 具体可以参考源码NioEventLoop.run和EpollEventLoop.run进行对比 4.Netty相关类图 5.配置Netty为EpollEventLoop // 创建指定的EventLoopGroup bossGroup = new EpollEventLoopGroup(1, new DefaultThreadFactory("BOSS_LOOP")); workerGroup = new EpollEventLoopGroup(32, new DefaultThreadFactory("IO_LOOP")); b.group(bossGroup, workerGroup) // 指定channel的class .channel(EpollServerSocketChannel.class) .childHandler(initializer); // 其中channel(clz)方法是通过class来new一个反射ServerSocketChannel创建工厂类 public B channel(Class<? extends C> channelClass) { if (channelClass == null) { throw new NullPointerException("channelClass"); } return channelFactory(new ReflectiveChannelFactory<C>(channelClass)); } final ChannelFuture initAndRegister() { // ... Channel channel = channelFactory.newChannel(); // ... } (编辑:汽车网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |