<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
最近因為工作需要,學習了一段時間Netty的原始碼,並做了一個簡單的分享,研究還不是特別深入,繼續努力。因為分享也不涉及公司業務,所以這裡也把這次對原始碼的研究成果分享出來 以下都是在遊戲伺服器開發中針對Netty使用需要了解知識點以及相關優化
這次分享主要設計以下內容
使用者端連線數的限制
埠號資源
cat /proc/sys/net/ipv4/ip_local_port_range
檔案描述符資源
使用者端連線數與伺服器執行緒數比例是n:1
所有IO在同一個NIO執行緒完成(處理連線,分派請求,編碼,解碼,邏輯運算,傳送)
優點:
缺點:
reactor單執行緒模型圖:
netty reactor單執行緒模型圖:
Netty對應實現方式
// Netty對應實現方式:建立io執行緒組是,boss和worker,使用同一個執行緒組,並且執行緒數為1 EventLoopGroup ioGroup = new NioEventLoopGroup(1); b.group(ioGroup, ioGroup) .channel(NioServerSocketChannel.class) .childHandler(initializer); ChannelFuture f = b.bind(portNumner); cf = f.sync(); f.get();
根據單執行緒模型,io處理中最耗時的編碼,解碼,邏輯運算等cpu消耗較多的部分,可提取出來使用多執行緒實現,並充分利用多核cpu的優勢
優點:
多執行緒處理邏輯運算,提高多核CPU利用率
缺點:
對於單Reactor來說,大量連結的IO事件處理依然是效能瓶頸
reactor多執行緒模型圖:
netty reactor多執行緒模型圖:
Netty對應實現方式
// Netty對應實現方式:建立io執行緒組是,boss和worker,使用同一個執行緒組,並且執行緒數為1,把邏輯運算部分投遞到使用者自定義執行緒處理 EventLoopGroup ioGroup = new NioEventLoopGroup(1); b.group(ioGroup, ioGroup) .channel(NioServerSocketChannel.class) .childHandler(initializer); ChannelFuture f = b.bind(portNumner); cf = f.sync(); f.get();
根據多執行緒模型,可把它的效能瓶頸做進一步優化,即把reactor由單個改為reactor執行緒池,把原來的reactor分為mainReactor和subReactor
優點:
reactor主從多執行緒模型圖:
netty reactor主從多執行緒模型圖:
Netty對應實現方式
// Netty對應實現方式:建立io執行緒組boss和worker,boss執行緒數為1,work執行緒數為cpu*2(一般IO密集可設定為2倍cpu核數) EventLoopGroup bossGroup = new NioEventLoopGroup(1); EventLoopGroup workerGroup = new NioEventLoopGroup(); b.group(bossGroup, workerGroup) .channel(NioServerSocketChannel.class) .childHandler(initializer); ChannelFuture f = b.bind(portNumner); cf = f.sync(); f.get();
// 1.構造引數不傳或傳0,預設取系統引數設定,沒有引數設定,取CPU核數*2 super(nThreads == 0 ? DEFAULT_EVENT_LOOP_THREADS : nThreads, executor, args); private static final int DEFAULT_EVENT_LOOP_THREADS; static { DEFAULT_EVENT_LOOP_THREADS = Math.max(1, SystemPropertyUtil.getInt( "io.netty.eventLoopThreads", NettyRuntime.availableProcessors() * 2)); } // 2.不同版本的JDK會有不同版本的SelectorProvider實現,Windows下的是WindowsSelectorProvider public NioEventLoopGroup(int nThreads, Executor executor) { //預設selector,最終實現類似:https://github.com/frohoff/jdk8u-jdk/blob/master/src/macosx/classes/sun/nio/ch/DefaultSelectorProvider.java //basic flow: 1 java.nio.channels.spi.SelectorProvider 2 META-INF/services 3 default this(nThreads, executor, SelectorProvider.provider()); } // 3.建立nThread個EventExecutor,並封裝到選擇器chooser,chooser會根據執行緒數分別有兩種實現(GenericEventExecutorChooser和PowerOfTwoEventExecutorChooser,演演算法不同,但實現邏輯一樣,就是均勻的分配執行緒處理) EventExecutorChooserFactory.EventExecutorChooser chooser; children = new EventExecutor[nThreads]; for (int i = 0; i < nThreads; i ++) { // ... children[i] = newChild(executor, args); // ... } chooser = chooserFactory.newChooser(children);
// 兩種方式設定group // parent和child使用同一個group,呼叫仍然是分別設定parent和child @Override public ServerBootstrap group(EventLoopGroup group) { return group(group, group); } ServerBootstrap.group(EventLoopGroup parentGroup, EventLoopGroup childGroup){ // 具體程式碼略,可直接參考原始碼 // 裡面實現內容是把parentGroup繫結到this.group,把childGroup繫結到this.childGroup }
// 呼叫順序 ServerBootstrap:bind() -> doBind() -> initAndRegister() private ChannelFuture doBind(final SocketAddress localAddress) { final ChannelFuture regFuture = initAndRegister(); // ... doBind0(regFuture, channel, localAddress, promise); // ... } final ChannelFuture initAndRegister() { // 建立ServerSocketChannel Channel channel = channelFactory.newChannel(); // ... // 開始register ChannelFuture regFuture = config().group().register(channel); // register呼叫順序 // next().register(channel) -> (EventLoop) super.next() -> chooser.next() // ... }
由以上原始碼可得知,bind只在起服呼叫一次,因此bossGroup僅呼叫一次regist,也就是僅呼叫一次next,因此只有一根執行緒是有用的,其餘執行緒都是廢棄的,所以bossGroup執行緒數設定為1即可
// 啟動BossGroup執行緒並繫結本地SocketAddress private static void doBind0( final ChannelFuture regFuture, final Channel channel, final SocketAddress localAddress, final ChannelPromise promise) { channel.eventLoop().execute(new Runnable() { @Override public void run() { if (regFuture.isSuccess()) { channel.bind(localAddress, promise).addListener(ChannelFutureListener.CLOSE_ON_FAILURE); } else { promise.setFailure(regFuture.cause()); } } }); }
// 訊息事件讀取 NioEventLoop.run() -> processSelectedKeys() -> ... -> ServerBootstrapAcceptor.channelRead // ServerBootstrapAcceptor.channelRead處理使用者端連線事件 // 最後一行的childGroup.register的邏輯和上面的程式碼呼叫處一樣 public void channelRead(ChannelHandlerContext ctx, Object msg) { child.pipeline().addLast(childHandler); setChannelOptions(child, childOptions, logger); setAttributes(child, childAttrs); childGroup.register(child) }
while(1) { nready = select(list); // 使用者層依然要遍歷,只不過少了很多無效的系統呼叫 for(fd <-- fdlist) { if(fd != -1) { // 唯讀已就緒的檔案描述符 read(fd, buf); // 總共只有 nready 個已就緒描述符,不用過多遍歷 if(--nready == 0) break; } } }
poll(時間複雜度O(n)):同select,不過把fd陣列換成了fd連結串列,去掉了fd最大連線數(1024個)的數量限制
epoll(時間複雜度O(1)):解決了select/poll的幾個缺陷
epoll是作業系統基於事件關聯fd,做了以下優化:
epoll僅在Linux系統上支援
// DefaultSelectorProvider.create方法在不同版本的jdk下有不同實現,建立不同Selector // Windows版本的jdk,其實現中呼叫的是native的poll方法 public static SelectorProvider create() { return new WindowsSelectorProvider(); } // Linux版本的jdk public static SelectorProvider create() { String str = (String)AccessController.doPrivileged(new GetPropertyAction("os.name")); if (str.equals("SunOS")) { return createProvider("sun.nio.ch.DevPollSelectorProvider"); } if (str.equals("Linux")) { return createProvider("sun.nio.ch.EPollSelectorProvider"); } return new PollSelectorProvider(); }
netty依然基於epoll做了一層封裝,主要做了以下事情:
(1)java的nio預設使用水平觸發,Netty的Epoll預設使用邊緣觸發,且可設定
(2)Netty的Epoll提供更多的nio的可配引數。
(3)呼叫c程式碼,更少gc,更少synchronized 具體可以參考原始碼NioEventLoop.run和EpollEventLoop.run進行對比
執行緒組類圖
channel類圖
// 建立指定的EventLoopGroup bossGroup = new EpollEventLoopGroup(1, new DefaultThreadFactory("BOSS_LOOP")); workerGroup = new EpollEventLoopGroup(32, new DefaultThreadFactory("IO_LOOP")); b.group(bossGroup, workerGroup) // 指定channel的class .channel(EpollServerSocketChannel.class) .childHandler(initializer); // 其中channel(clz)方法是通過class來new一個反射ServerSocketChannel建立工廠類 public B channel(Class<? extends C> channelClass) { if (channelClass == null) { throw new NullPointerException("channelClass"); } return channelFactory(new ReflectiveChannelFactory<C>(channelClass)); } final ChannelFuture initAndRegister() { // ... Channel channel = channelFactory.newChannel(); // ... }
childOption(ChannelOption.SO_KEEPALIVE, true)
TCP鏈路探活
option(ChannelOption.SO_REUSEADDR, true)
重用處於TIME_WAIT但是未完全關閉的socket地址,讓埠釋放後可立即被重用。預設關閉,需要手動開啟
childOption(ChannelOption.TCP_NODELAY, true)
IP報文格式
TCP報文格式
開啟則禁用TCP Negal演演算法,優點低延時,缺點在大量小封包的情況下,網路利用率低
關閉則開啟TCP Negal演演算法,優點提高網路利用率(資料快取到一定量才傳送),缺點延時高
Negal演演算法
MSS計算規則 MSS的值是在TCP三次握手建立連線的過程中,經通訊雙方協商確定的 802.3標準裡,規定了一個以太幀的資料部分(Payload)的最大長度是1500個位元組(MTU)
MSS = MTU - IP首部 - TCP首部
乙太網環境下:
MTU = 1500位元組
IP首部 = 32*5/4 = 160bit = 20位元組
TCP首部 = 32*5/4 = 160bit = 20位元組
最終得出MSS = 1460位元組
結論:因為遊戲伺服器的實時性要求,在網路頻寬足夠的情況下,建議開啟TCP_NODELAY,關閉Negal演演算法,頻寬可以浪費,響應必須及時
注意:需要使用者端伺服器均關閉Negal演演算法,否則仍然會有延遲傳送,影響傳輸速度
option(ChannelOption.SO_BACKLOG, 100)
作業系統核心中維護的兩個佇列
cat /proc/sys/net/ipv4/tcp_max_syn_backlog
cat /proc/sys/net/core/somaxconn
netty對於backlog的預設值設定在NetUtil類253行
SOMAXCONN = AccessController.doPrivileged(new PrivilegedAction<Integer>() { @Override public Integer run() { // 1.設定預設值 int somaxconn = PlatformDependent.isWindows() ? 200 : 128; File file = new File("/proc/sys/net/core/somaxconn"); if (file.exists()) { // 2.檔案存在,讀取作業系統設定 in = new BufferedReader(new FileReader(file)); somaxconn = Integer.parseInt(in.readLine()); } else { // 3.檔案不存在,從各個引數中讀取 if (SystemPropertyUtil.getBoolean("io.netty.net.somaxconn.trySysctl", false)) { tmp = sysctlGetInt("kern.ipc.somaxconn"); if (tmp == null) { tmp = sysctlGetInt("kern.ipc.soacceptqueue"); if (tmp != null) { somaxconn = tmp; } } else { somaxconn = tmp; } } } } }
結論:
Linux下/proc/sys/net/core/somaxconn一定存在,所以backlog一定取得它的值,我參考prod機器的引數設定的65535,也就是不設定backlog的情況下,伺服器執行快取65535個全連線
預設分配ByteBuffAllocator賦值如下: ByteBufUtil.java
static { //以io.netty.allocator.type為準,沒有的話,安卓平臺用非池化實現,其他用池化實現 String allocType = SystemPropertyUtil.get( "io.netty.allocator.type", PlatformDependent.isAndroid() ? "unpooled" : "pooled"); allocType = allocType.toLowerCase(Locale.US).trim(); ByteBufAllocator alloc; if ("unpooled".equals(allocType)) { alloc = UnpooledByteBufAllocator.DEFAULT; logger.debug("-Dio.netty.allocator.type: {}", allocType); } else if ("pooled".equals(allocType)) { alloc = PooledByteBufAllocator.DEFAULT; logger.debug("-Dio.netty.allocator.type: {}", allocType); } else { //io.netty.allocator.type設定的不是"unpooled"或者"pooled",就用池化實現。 alloc = PooledByteBufAllocator.DEFAULT; logger.debug("-Dio.netty.allocator.type: pooled (unknown: {})", allocType); } DEFAULT_ALLOCATOR = alloc; }
RCVBUF_ALLOCATOR預設AdaptiveRecvByteBufAllocator
public class DefaultChannelConfig implements ChannelConfig { // ... public DefaultChannelConfig(Channel channel) { this(channel, new AdaptiveRecvByteBufAllocator()); } // ... }
/** * Shortcut method for {@link #shutdownGracefully(long, long, TimeUnit)} with sensible default values. * * @return the {@link #terminationFuture()} */ Future<?> shutdownGracefully(); /** * Signals this executor that the caller wants the executor to be shut down. Once this method is called, * {@link #isShuttingDown()} starts to return {@code true}, and the executor prepares to shut itself down. * Unlike {@link #shutdown()}, graceful shutdown ensures that no tasks are submitted for <i>'the quiet period'</i> * (usually a couple seconds) before it shuts itself down. If a task is submitted during the quiet period, * it is guaranteed to be accepted and the quiet period will start over. * * @param quietPeriod the quiet period as described in the documentation 靜默期:在此期間,仍然可以提交任務 * @param timeout the maximum amount of time to wait until the executor is {@linkplain #shutdown()} * regardless if a task was submitted during the quiet period 超時時間:等待所有任務執行完的最大時間 * @param unit the unit of {@code quietPeriod} and {@code timeout} * * @return the {@link #terminationFuture()} */ Future<?> shutdownGracefully(long quietPeriod, long timeout, TimeUnit unit); // 抽象類中的實現 static final long DEFAULT_SHUTDOWN_QUIET_PERIOD = 2; static final long DEFAULT_SHUTDOWN_TIMEOUT = 15; @Override public Future<?> shutdownGracefully() { return shutdownGracefully(DEFAULT_SHUTDOWN_QUIET_PERIOD, DEFAULT_SHUTDOWN_TIMEOUT, TimeUnit.SECONDS); }
以上就是遊戲伺服器中的Netty應用以及原始碼剖析的詳細內容,更多關於Netty遊戲伺服器的資料請關注it145.com其它相關文章!
相關文章
<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
综合看Anker超能充系列的性价比很高,并且与不仅和iPhone12/苹果<em>Mac</em>Book很配,而且适合多设备充电需求的日常使用或差旅场景,不管是安卓还是Switch同样也能用得上它,希望这次分享能给准备购入充电器的小伙伴们有所
2021-06-01 09:31:42
除了L4WUDU与吴亦凡已经多次共事,成为了明面上的厂牌成员,吴亦凡还曾带领20XXCLUB全队参加2020年的一场音乐节,这也是20XXCLUB首次全员合照,王嗣尧Turbo、陈彦希Regi、<em>Mac</em> Ova Seas、林渝植等人全部出场。然而让
2021-06-01 09:31:34
目前应用IPFS的机构:1 谷歌<em>浏览器</em>支持IPFS分布式协议 2 万维网 (历史档案博物馆)数据库 3 火狐<em>浏览器</em>支持 IPFS分布式协议 4 EOS 等数字货币数据存储 5 美国国会图书馆,历史资料永久保存在 IPFS 6 加
2021-06-01 09:31:24
开拓者的车机是兼容苹果和<em>安卓</em>,虽然我不怎么用,但确实兼顾了我家人的很多需求:副驾的门板还配有解锁开关,有的时候老婆开车,下车的时候偶尔会忘记解锁,我在副驾驶可以自己开门:第二排设计很好,不仅配置了一个很大的
2021-06-01 09:30:48
不仅是<em>安卓</em>手机,苹果手机的降价力度也是前所未有了,iPhone12也“跳水价”了,发布价是6799元,如今已经跌至5308元,降价幅度超过1400元,最新定价确认了。iPhone12是苹果首款5G手机,同时也是全球首款5nm芯片的智能机,它
2021-06-01 09:30:45