本篇内容主要讲解“ Netty是怎么实现内存分配的”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“ Netty是怎么实现内存分配的”吧!
Netty 中的数据容器分类
谈到数据保存肯定要说到内存分配,按照存储空间来划分,可以分为堆内存和堆外内存;按照内存区域连贯性来划分可以分为池化内存和非池化内存。这些划分在 Netty 中的实现接口分别如下。
按照底层存储空间划分:
堆缓冲区:HeapBuffer
直接缓冲区:DirectBuffer
按照是否池化划分:
池化:PooledBuffer
非池化:UnPooledBuffer
默认使用 PoolDireBuf 类型的内存,这些内存主要由 PoolArea 管理。另外 Netty 并不是直接对外暴露这些 API,提供了 Unsafe 类作为出口暴露数据分配的相关操作。
什么是池化?
一般申请内存是检查当前内存哪里有适合当前数据块大小的空闲内存块,如果有就将数据保存在当前内存块中。
那么池化想做的事情是:既然每次来数据都要去找内存地址来存,我就先申请一块内存地址,这一块就是我的专用空间,内存分配、回收我全权管理。
池化解决的问题:内存碎片。
内碎片:就是申请的地址空间大于真正数据使用的内存空间。
比如固定申请 1M 的空间作为某个线程的使用内存,但是该线程每次最多只占用 0.5M,那么每次都有 0.5M 的碎片。如果该空间不被有效回收时间一长必然存在内存空洞。
外碎片:是指多个内存空间合并的时候发现不够分配给待使用的空间大小。
比如有一个 20byte,13byte 的连续内存空间可以被回收,现在有一个 48byte 的数据块需要存储,而这两个加起来也只有 33byte 的空间,必然不会被使用到。
如何实现内存池?
①链表维护空闲内存地址
最简单的就是弄一个链表来维护当前空闲的内存空间地址。如果有使用就从链表删除,有释放就加入链表对应位置。
这种方式实现简单,但是搜索和释放内存维护的难度还是比较大,不太适合。
②定长内存空间分配
维护两个列表,一个是未分配内存列表,一个是已分配内存列表。每个内存块都是一样大小,分配时如果不够就将多个块合并到一起。
这种方式的缺点就是会浪费一定的内存空间,如果有特定的场景还是没有问题。
③多段定长池分配
在上面的定长分配基础上,由原来的固定一个长度分配空间变为按照不同对象大小(8,16,32,64,128,256,512,1k…64K),的方式分配多个固定大小的内存池。
每次要申请内存的时候按照当前对象大小去对应的池中查找是否有剩余空间。
Linux 本身支持动态内存分配和释放,对应的命令为:malloc/free。malloc 的全称是 memory allocation,中文叫动态内存分配,用于申请一块连续的指定大小的内存块区域以 void* 类型返回分配的内存区域地址。
malloc/free 的实现过程:
空闲存储空间以空闲链表的方式组织(地址递增),每个块包含一个长度、一个指向下一块的指针以及一个指向自身存储空间的指针。(因为程序中的某些地方可能不通过 malloc 调用申请,因此 malloc 管理的空间不一定连续)
当有申请请求时,malloc 会扫描空闲链表,直到找到一个足够大的块为止。(首次适应)(因此每次调用 malloc 时并不是花费了完全相同的时间)
如果该块恰好与请求的大小相符,则将其从链表中移走并返回给用户。如果该块太大,则将其分为两部分,尾部的部分分给用户,剩下的部分留在空闲链表中(更改头部信息)。因此 malloc 分配的是一块连续的内存。
释放时首先搜索空闲链表,找到可以插入被释放块的合适位置。如果与被释放块相邻的任一边是一个空闲块,则将这两个块合为一个更大的块,以减少内存碎片。
Netty 中的内存分配
Netty 采用了 jemalloc 的思想,这是 FreeBSD 实现的一种并发 malloc 的算法。
jemalloc 依赖多个 Arena(分配器)来分配内存,运行中的应用都有固定数量的多个 Arena,默认的数量与处理器的个数有关。
系统中有多个 Arena 的原因是由于各个线程进行内存分配时竞争不可避免,这可能会极大的影响内存分配的效率,为了缓解高并发时的线程竞争,Netty 允许使用者创建多个分配器(Arena)来分离锁,提高内存分配效率。
线程首次分配/回收内存时,首先会为其分配一个固定的 Arena。线程选择 Arena 时使用 round-robin 的方式,也就是顺序轮流选取。
每个线程各种保存 Arena 和缓存池信息,这样可以减少竞争并提高访问效率。Arena 将内存分为很多 Chunk 进行管理,Chunk 内部保存 Page,以页为单位申请。
申请内存分配时,会将分配的规格分为如下四类,分别对应不同的范围,处理过程也不相同:
tiny:代表了大小在 0-512B 的内存块。
small:代表了大小在 512B-8K 的内存块。
normal:代表了大小在 8K-16M 的内存块。
huge:代表了大于 16M 的内存块。
每个块里面又定义了更细粒度的单位来分配数据:
Chunk:一个 Chunk 的大小是 16M,Chunk 是 Netty 对操作系统进行内存申请的单位,后续所有的内存分配都是在 Chunk 里面进行操作。
Page:Chunk 内部以 Page 为单位分配内存,一个 Page 大小为 8K。当我们需要 16K 的空间时,Netty 就会从一个 Chunk 中找到两个 Page 进行分配。
Subpage 和 element:element 是比 Page 更小的单位,当我们申请小于 8K 的内存时,Netty 会以 element 为单位进行内存分配。element 没有固定大小,具体由用户的需求决定。
Netty 通过 Subpage 管理 element,Subpage 是由 Page 转变过来的。当我们需要 1K 的空间时,Netty 会把一个 Page 变成 Subpage,然后把 Subpage 分成 8 个 1K 的 element 进行分配。
Chunk 中的内存分配
线程分配内存主要从两个地方:PoolThreadCache 和 Arena。其中 PoolThreadCache 线程独享,Arena 为几个线程共享。
初次申请内存的时候,Netty 会从一整块内存(Chunk)中分出一部分来给用户使用,这部分工作是由 Arena 来完成。
而当用户使用完毕释放内存的时候,这些被分出来的内存会按不同规格大小放在 PoolThreadCache 中缓存起来。当下次要申请内存的时候,就会先从 PoolThreadCache 中找。
Chunk、Page、Subpage 和 element 都是 Arena 中的概念,Arena 的工作就是从一整块内存中分出合适大小的内存块。
Arena 中最大的内存单位是 Chunk,这是 Netty 向操作系统申请内存的单位。
而一块 Chunk(16M) 申请下来之后,内部会被分成 2048 个 Page(8K),当用户向 Netty 申请超过 8K 内存的时候,Netty 会以 Page 的形式分配内存。
Chunk 内部通过伙伴算法管理 Page,具体实现为一棵完全平衡二叉树:
二叉树中所有子节点管理的内存也属于其父节点。当我们要申请大小为 16K 的内存时,我们会从根节点开始不断寻找可用的节点,一直到第 10 层。
那么如何判断一个节点是否可用呢?Netty 会在每个节点内部保存一个值,这个值代表这个节点之下的第几层还存在未分配的节点。
比如第 9 层的节点的值如果为 9,就代表这个节点本身到下面所有的子节点都未分配。
如果第 9 层的节点的值为 10,代表它本身不可被分配,但第 10 层有子节点可以被分配。
如果第 9 层的节点的值为 12,此时可分配节点的深度大于了总深度,代表这个节点及其下面的所有子节点都不可被分配。
下图描述了分配的过程:
对于小内存(小于 4096)的分配还会将 Page 细化成更小的单位 Subpage。
Subpage 按大小分有两大类:
Tiny:小于 512 的情况,最小空间为 16,对齐大小为 16,区间为[16,512),所以共有 32 种情况。
Small:大于等于 512 的情况,总共有四种:512,1024,2048,4096。
PoolSubpage 中直接采用位图管理空闲空间(因为不存在申请 k 个连续的空间),所以申请释放非常简单。
第一次申请小内存空间的时候,需要先申请一个空闲页,然后将该页转成 PoolSubpage,再将该页设为已被占用,最后再把这个 PoolSubpage 存到 PoolSubpage 池中。
这样下次就不需要再去申请空闲页了,直接去池中找就好了。Netty 中有 36 种 PoolSubpage,所以用 36 个 PoolSubpage 链表表示 PoolSubpage 池。
因为单个 PoolChunk 只有 16M,这远远不够用,所以会很很多很多 PoolChunk,这些 PoolChunk 组成一个链表,然后用 PoolChunkList 持有这个链表。
我们先从内存分配器 PoolArena 来分析 Netty 中的内存是如何分配的,Area 的工作就是从一整块内存中协调如何分配合适大小的内存给当前数据使用。
PoolArena 是 Netty 的内存池实现抽象类,其内部子类为 HeapArena 和 DirectArena。
HeapArena 对应堆内存(heap buffer),DirectArena 对应堆外直接内存(direct buffer),两者除了操作的内存(byte[] 和 ByteBuffer)不同外其余完全一致。
从结构上来看,PoolArena 中主要包含三部分子内存池:
tinySubpagePools
smallSubpagePools
一系列的 PoolChunkList
tinySubpagePools 和 smallSubpagePools 都是 PoolSubpage 的数组,数组长度分别为 32 和 4。
PoolChunkList 是一个容器,其内部可以保存一系列的 PoolChunk 对象,并且,Netty 会根据内存使用率的不同,将 PoolChunkList 分为不同等级的容器。
abstract class PoolArena<T> implements PoolArenaMetric { enum SizeClass { Tiny, Small, Normal } // 该参数指定了tinySubpagePools数组的长度,由于tinySubpagePools每一个元素的内存块差值为16, // 因而数组长度是512/16,也即这里的512 >>> 4 static final int numTinySubpagePools = 512 >>> 4; //表示该PoolArena的allocator final PooledByteBufAllocator parent; //表示PoolChunk中由Page节点构成的二叉树的最大高度,默认11 private final int maxOrder; //page的大小,默认8K final int pageSize; // 指定了叶节点大小8KB是2的多少次幂,默认为13,该字段的主要作用是,在计算目标内存属于二叉树的 // 第几层的时候,可以借助于其内存大小相对于pageShifts的差值,从而快速计算其所在层数 final int pageShifts; //默认16MB final int chunkSize; // 由于PoolSubpage的大小为8KB=8196,因而该字段的值为 // -8192=>=> 1111 1111 1111 1111 1110 0000 0000 0000 // 这样在判断目标内存是否小于8KB时,只需要将目标内存与该数字进行与操作,只要操作结果等于0, // 就说明目标内存是小于8KB的,这样就可以判断其是应该首先在tinySubpagePools或smallSubpagePools // 中进行内存申请 final int subpageOverflowMask; // 该参数指定了smallSubpagePools数组的长度,默认为4 final int numSmallSubpagePools; //tinySubpagePools用来分配小于512 byte的Page private final PoolSubpage<T>[] tinySubpagePools; //smallSubpagePools用来分配大于等于512 byte且小于pageSize内存的Page private final PoolSubpage<T>[] smallSubpagePools; //用来存储用来分配给大于等于pageSize大小内存的PoolChunk //存储内存利用率50-100%的chunk private final PoolChunkList<T> q050; //存储内存利用率25-75%的chunk private final PoolChunkList<T> q025; //存储内存利用率1-50%的chunk private final PoolChunkList<T> q000; //存储内存利用率0-25%的chunk private final PoolChunkList<T> qInit; //存储内存利用率75-100%的chunk private final PoolChunkList<T> q075; //存储内存利用率100%的chunk private final PoolChunkList<T> q100; //堆内存(heap buffer) static final class HeapArena extends PoolArena<byte[]> { } //堆外直接内存(direct buffer) static final class DirectArena extends PoolArena<ByteBuffer> { } }
如上所示,PoolArena 是由多个 PoolChunk 组成的大块内存区域,而每个 PoolChunk 则由多个 Page 组成。
当需要分配的内存小于 Page 的时候,为了节约内存采用 PoolSubpage 实现小于 Page 大小内存的分配。
在 PoolArena 中为了保证 PoolChunk 空间的最大利用化,按照 PoolArena 中各 个 PoolChunk 已使用的空间大小将其划分为六类:
qInit:存储内存利用率 0-25% 的 chunk
q000:存储内存利用率 1-50% 的 chunk
q025:存储内存利用率 25-75% 的 chunk
q050:存储内存利用率 50-100% 的 chunk
q075:存储内存利用率 75-100%的 chunk
q100:存储内存利用率 100%的 chunk
PoolArena 维护了一个 PoolChunkList 组成的双向链表,每个 PoolChunkList 内部维护了一个 PoolChunk 双向链表。
分配内存时,PoolArena 通过在 PoolChunkList 找到一个合适的 PoolChunk,然后从 PoolChunk 中分配一块内存。
下面来看 PoolArena 是如何分配内存的:
private void allocate(PoolThreadCache cache, PooledByteBuf<T> buf, final int reqCapacity) { // 将需要申请的容量格式为 2^N final int normCapacity = normalizeCapacity(reqCapacity); // 判断目标容量是否小于8KB,小于8KB则使用tiny或small的方式申请内存 if (isTinyOrSmall(normCapacity)) { // capacity < pageSize int tableIdx; PoolSubpage<T>[] table; boolean tiny = isTiny(normCapacity); // 判断目标容量是否小于512字节,小于512字节的为tiny类型的 if (tiny) { // < 512 // 将分配区域转移到 tinySubpagePools 中 if (cache.allocateTiny(this, buf, reqCapacity, normCapacity)) { // was able to allocate out of the cache so move on return; } // 如果无法从当前线程缓存中申请到内存,则尝试从tinySubpagePools中申请,这里tinyIdx()方法 // 就是计算目标内存是在tinySubpagePools数组中的第几号元素中的 tableIdx = tinyIdx(normCapacity); table = tinySubpagePools; } else { // 如果目标内存在512byte~8KB之间,则尝试从smallSubpagePools中申请内存。这里首先从 // 当前线程的缓存中申请small级别的内存,如果申请到了,则直接返回 if (cache.allocateSmall(this, buf, reqCapacity, normCapacity)) { // was able to allocate out of the cache so move on return; } tableIdx = smallIdx(normCapacity); table = smallSubpagePools; } // 获取目标元素的头结点 final PoolSubpage<T> head = table[tableIdx]; // 这里需要注意的是,由于对head进行了加锁,而在同步代码块中判断了s != head, // 也就是说PoolSubpage链表中是存在未使用的PoolSubpage的,因为如果该节点已经用完了, // 其是会被移除当前链表的。也就是说只要s != head,那么这里的allocate()方法 // 就一定能够申请到所需要的内存块 synchronized (head) { // s != head就证明当前PoolSubpage链表中存在可用的PoolSubpage,并且一定能够申请到内存, // 因为已经耗尽的PoolSubpage是会从链表中移除的 final PoolSubpage<T> s = head.next; // 如果此时 subpage 已经被分配过内存了执行下文,如果只是初始化过,则跳过该分支 if (s != head) { // 从PoolSubpage中申请内存 assert s.doNotDestroy && s.elemSize == normCapacity; // 通过申请的内存对ByteBuf进行初始化 long handle = s.allocate(); assert handle >= 0; // 初始化 PoolByteBuf 说明其位置被分配到该区域,但此时尚未分配内存 s.chunk.initBufWithSubpage(buf, handle, reqCapacity); // 对tiny类型的申请数进行更新 if (tiny) { allocationsTiny.increment(); } else { allocationsSmall.increment(); } return; } } // 走到这里,说明目标PoolSubpage链表中无法申请到目标内存块,因而就尝试从PoolChunk中申请 allocateNormal(buf, reqCapacity, normCapacity); return; } // 走到这里说明目标内存是大于8KB的,那么就判断目标内存是否大于16M,如果大于16M, // 则不使用内存池对其进行管理,如果小于16M,则到PoolChunkList中进行内存申请 if (normCapacity <= chunkSize) { // 小于16M,首先到当前线程的缓存中申请,如果申请到了则直接返回,如果没有申请到, // 则到PoolChunkList中进行申请 if (cache.allocateNormal(this, buf, reqCapacity, normCapacity)) { // was able to allocate out of the cache so move on return; } allocateNormal(buf, reqCapacity, normCapacity); } else { // 对于大于16M的内存,Netty不会对其进行维护,而是直接申请,然后返回给用户使用 allocateHuge(buf, reqCapacity); } }
所有内存分配的 size 都会经过 normalizeCapacity() 进行处理,申请的容量总是会被格式为 2^N。
主要规则如下:
如果目标容量小于 16 字节,则返回 16。
如果目标容量大于 16 字节,小于 512 字节,则以 16 字节为单位,返回大于目标字节数的第一个 16 字节的倍数。比如申请的 100 字节,那么大于 100 的 16 整数倍最低为:16*7=112,因而返回 112。
如果目标容量大于 512 字节,则返回大于目标容量的第一个 2 的指数幂。比如申请的 1000 字节,那么返回的将是:2^10 = 1024。
PoolArena 提供了两种方式进行内存分配:
①PoolSubpage 用于分配小于 8k 的内存
tinySubpagePools:用于分配小于 512 字节的内存,默认长度为 32,因为内存分配最小为 16,每次增加 16,直到 512,区间 [16,512) 一共有 32 个不同值。
smallSubpagePools:用于分配大于等于 512 字节的内存,默认长度为 4。tinySubpagePools 和 smallSubpagePools 中的元素默认都是 subpage。
②poolChunkList 用于分配大于 8k 的内存
上面已经解释了 q 开头的几个变量用于保存大于 8k 的数据。
默认先尝试从 poolThreadCache 中分配内存,PoolThreadCache 利用 ThreadLocal 的特性,消除了多线程竞争,提高内存分配效率;
首次分配时,poolThreadCache 中并没有可用内存进行分配,当上一次分配的内存使用完并释放时,会将其加入到 poolThreadCache 中,提供该线程下次申请时使用。
如果是分配小内存,则尝试从 tinySubpagePools 或 smallSubpagePools 中分配内存,如果没有合适 subpage,则采用方法 allocateNormal 分配内存。
如果分配一个 page 以上的内存,直接采用方法 allocateNormal() 分配内存,allocateNormal() 则会将申请动作交由 PoolChunkList 进行。
private synchronized void allocateNormal(PooledByteBuf<T> buf, int reqCapacity, int normCapacity) { //如果在对应的PoolChunkList能申请到内存,则返回 if (q050.allocate(buf, reqCapacity, normCapacity) || q025.allocate(buf, reqCapacity, normCapacity) || q000.allocate(buf, reqCapacity, normCapacity) || qInit.allocate(buf, reqCapacity, normCapacity) || q075.allocate(buf, reqCapacity, normCapacity)) { ++allocationsNormal; return; } // Add a new chunk. PoolChunk<T> c = newChunk(pageSize, maxOrder, pageShifts, chunkSize); long handle = c.allocate(normCapacity); ++allocationsNormal; assert handle > 0; c.initBuf(buf, handle, reqCapacity); qInit.add(c); }
首先将申请动作按照 q050→q025→q000→qInit→q075 的顺序依次交由各个 PoolChunkList 进行处理,如果在对应的 PoolChunkList 中申请到了内存,则直接返回。
如果申请不到,那么直接创建一个新的 PoolChunk,然后在该 PoolChunk 中申请目标内存,最后将该 PoolChunk 添加到 qInit 中。
上面说过 Chunk 是 Netty 向操作系统申请内存块的最大单位,每个 Chunk 是 16M。
PoolChunk 内部通过 memoryMap 数组维护了一颗完全平衡二叉树作为管理底层内存分布及回收的标记位,所有的子节点管理的内存也属于其父节点。
关于 PoolChunk 内部如何维护完全平衡二叉树就不在这里展开,大家有兴趣可以自行看源码。
对于内存的释放,PoolArena 主要是分为两种情况,即池化和非池化,如果是非池化,则会直接销毁目标内存块,如果是池化的,则会将其添加到当前线程的缓存中。
如下是 free() 方法的源码:
public void free(PoolChunk<T> chunk, ByteBuffer nioBuffer, long handle, int normCapacity, PoolThreadCache cache) { // 如果是非池化的,则直接销毁目标内存块,并且更新相关的数据 if (chunk.unpooled) { int size = chunk.chunkSize(); destroyChunk(chunk); activeBytesHuge.add(-size); deallocationsHuge.increment(); } else { // 如果是池化的,首先判断其是哪种类型的,即tiny,small或者normal, // 然后将其交由当前线程的缓存进行处理,如果添加成功,则直接返回 SizeClass sizeClass = sizeClass(normCapacity); if (cache != null && cache.add(this, chunk, nioBuffer, handle, normCapacity, sizeClass)) { return; } // 如果当前线程的缓存已满,则将目标内存块返还给公共内存块进行处理 freeChunk(chunk, handle, sizeClass, nioBuffer); } }
到此,相信大家对“ Netty是怎么实现内存分配的”有了更深的了解,不妨来实际操作一番吧!这里是亿速云网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。