HBase 探索 | ZGC 和 G1 在 HBase 集群的 GC 性能对比

HBase技术社区

共 8619字,需浏览 18分钟

 ·

2021-03-14 16:45


  • 1. 前言

  • 2. GC 之痛

  • 3. CMS 和 G1 停顿时间瓶颈

  • 4. ZGC 原理

    • 4.1 全并发的 ZGC

    • 4.2 ZGC 中的关键技术

  • 5. 初探 ZGC 在 HBase 中的 GC 表现

  • 6. ZGC 与 G1 GC 的数据统计对比

    • 6.1 G1

    • 6.2 ZGC

    • 6.3 G1 与 ZGC 吞吐量相关指标比较

  • 7. 总结

  • 8. 参考链接


1. 前言

本文为了衔接公众号中的前几篇 ZGC 相关的文章,继续探索 ZGC 在 HBase 集群中真实的 GC 表现能力,并把其与 G1 GC 做一个简单的对比,验证 ZGC 是否真如传言中的那般,令人叹为观止。

在前几篇文章中,我为大家分享了使用 JDK15 编译 HBase(和 CDH HBase)的踩坑记录和 ZGC 在 HBase 集群中的配置方法,有对 ZGC 感兴趣的小伙伴,也可以亲自动手尝试一下,体验体验这个来自未来的技术。

2. GC 之痛

很多低延迟高可用的 Java 服务的系统可用性饱受 GC 停顿的困扰,例如:HBase,GC 停顿是影响 HBase 读写延时的一大元凶。GC 停顿是指垃圾回收期间的 STW(Stop The World),当 STW 发生的时候,所有应用线程停止活动,等待 GC 停顿的结束。

我们线上 HBase 集群的 GC 优化经历过 CMS 和 G1,G1 GC 调优之后,在很长的一段时间之内,是可以满足我们线上接口对 HBase 查询延时的需求。但更高敏感的业务上线之后,我们的集群便立马捉襟见肘,例如:我们的某些核心业务要求 100ms 内返回结果,并且可用性要达到 99.9%甚至 99.99%,但在各种各样因素的综合影响之下,我们的集群一直无法满足业务方的要求。

我们做过数据请求测试,持续用一个 rowKey 来循环请求 HBase 集群,统计查询耗时,一直无法满足 99.9%的查询目标,而且,在耗时查询发生的相同时间点,也伴随着 GC 的发生。单次 GC 的停顿,可能是导致我们在这种查询场景下,出现耗时查询的最大元凶。

降低单次 GC 的时间和降低 GC 发生的频率,可能会进一步提升我们集群的查询性能,出于这个目标,我们才开始了对 ZGC 的探索之路。

3. CMS 和 G1 停顿时间瓶颈

介绍 ZGC 之前,先简单回顾下 CMS 和 G1 的 GC 过程,以及停顿时间的瓶颈。CMS 新生代的 Young GC、G1 和 ZGC 都基于标记-复制算法,但算法具体实现的不同就导致了巨大的性能差异。

标记-复制算法应用在 CMS 新生代(ParNew 是 CMS 默认的新生代垃圾回收器)和 G1 垃圾回收器中。标记-复制算法可以分为三个阶段:

  • 标记阶段,即从 GC Roots 集合开始,标记活跃对象;
  • 转移阶段,即把活跃对象复制到新的内存地址上;
  • 重定位阶段,因为转移导致对象的地址发生了变化,在重定位阶段,所有指向对象旧地址的指针都要调整到对象新的地址上。

下面以 G1 为例,通过 G1 中标记-复制算法过程(G1 的 Young GC 和 Mixed GC 均采用该算法),分析 G1 停顿耗时的主要瓶颈。G1 垃圾回收周期如下图所示:

g1

G1 的混合回收过程可以分为标记阶段、清理阶段和复制阶段。

标记阶段停顿分析

  • 初始标记阶段:初始标记阶段是指从 GC Roots 出发标记全部直接子节点的过程,该阶段是 STW 的。由于 GC Roots 数量不多,通常该阶段耗时非常短。
  • 并发标记阶段:并发标记阶段是指从 GC Roots 开始对堆中对象进行可达性分析,找出存活对象。该阶段是并发的,即应用线程和 GC 线程可以同时活动。并发标记耗时相对长很多,但因为不是 STW,所以我们不太关心该阶段耗时的长短。
  • 再标记阶段:重新标记那些在并发标记阶段发生变化的对象。该阶段是 STW 的。

清理阶段停顿分析

  • 清理阶段清点出有存活对象的分区和没有存活对象的分区,该阶段不会清理垃圾对象,也不会执行存活对象的复制。该阶段是 STW 的。

复制阶段停顿分析

  • 复制算法中的转移阶段需要分配新内存和复制对象的成员变量。转移阶段是 STW 的,其中内存分配通常耗时非常短,但对象成员变量的复制耗时有可能较长,这是因为复制耗时与存活对象数量与对象复杂度成正比。对象越复杂,复制耗时越长。

四个 STW 过程中,初始标记因为只标记 GC Roots,耗时较短。再标记因为对象数少,耗时也较短。清理阶段因为内存分区数量少,耗时也较短。转移阶段要处理所有存活的对象,耗时会较长。因此,G1 停顿时间的瓶颈主要是标记-复制中的转移阶段 STW。为什么转移阶段不能和标记阶段一样并发执行呢?主要是 G1 未能解决转移过程中准确定位对象地址的问题。

G1 的 Young GC 和 CMS 的 Young GC,其标记-复制全过程 STW,不再详细阐述,这里列举几篇范欣欣大神写的文章。

HBase GC 的前生今世 – 身世篇

HBase GC 的前生今世 – 演进篇

HBase 最佳实践-CMS GC 调优

4. ZGC 原理

4.1 全并发的 ZGC

与 CMS 中的 ParNew 和 G1 类似,ZGC 也采用标记-复制算法,不过 ZGC 对该算法做了重大改进:ZGC 在标记、转移和重定位阶段几乎都是并发的,这是 ZGC 实现停顿时间小于 10ms 目标的最关键原因。

ZGC 垃圾回收周期如下图所示:

zgc

ZGC 只有三个 STW 阶段:初始标记再标记初始转移。其中,初始标记和初始转移分别都只需要扫描所有 GC Roots,其处理时间和 GC Roots 的数量成正比,一般情况耗时非常短;再标记阶段 STW 时间很短,最多 1ms,超过 1ms 则再次进入并发标记阶段。即,ZGC 几乎所有暂停都只依赖于 GC Roots 集合大小,停顿时间不会随着堆的大小或者活跃对象的大小而增加。与 ZGC 对比,G1 的转移阶段完全 STW 的,且停顿时间随存活对象的大小增加而增加。

4.2 ZGC 中的关键技术

ZGC 通过着色指针和读屏障技术,解决了转移过程中准确访问对象的问题,实现了并发转移。大致原理描述如下:并发转移中“并发”意味着 GC 线程在转移对象的过程中,应用线程也在不停地访问对象。假设对象发生转移,但对象地址未及时更新,那么应用线程可能访问到旧地址,从而造成错误。而在 ZGC 中,应用线程访问对象将触发“读屏障”,如果发现对象被移动了,那么“读屏障”会把读出来的指针更新到对象的新地址上,这样应用线程始终访问的都是对象的新地址。那么,JVM 是如何判断对象被移动过呢?就是利用对象引用的地址,即着色指针。下面介绍着色指针和读屏障技术细节。

着色指针

**|**着色指针是一种将信息存储在指针中的技术。

ZGC 仅支持 64 位系统,它把 64 位虚拟地址空间划分为多个子空间,如下图所示:

colored-pointered

其中,[0~4TB) 对应 Java 堆,[4TB ~ 8TB) 称为 M0 地址空间,[8TB ~ 12TB) 称为 M1 地址空间,[12TB ~ 16TB) 预留未使用,[16TB ~ 20TB) 称为 Remapped 空间。

当应用程序创建对象时,首先在堆空间申请一个虚拟地址,但该虚拟地址并不会映射到真正的物理地址。ZGC 同时会为该对象在 M0、M1 和 Remapped 地址空间分别申请一个虚拟地址,且这三个虚拟地址对应同一个物理地址,但这三个空间在同一时间有且只有一个空间有效。ZGC 之所以设置三个虚拟地址空间,是因为它使用“空间换时间”思想,去降低 GC 停顿时间。“空间换时间”中的空间是虚拟空间,而不是真正的物理空间。后续章节将详细介绍这三个空间的切换过程。

与上述地址空间划分相对应,ZGC 实际仅使用 64 位地址空间的第 0~41 位,而第 42~45 位存储元数据,第 47~63 位固定为 0。

zgc

ZGC 将对象存活信息存储在 42~45 位中,这与传统的垃圾回收并将对象存活信息放在对象头中完全不同。

读屏障

| 读屏障是 JVM 向应用代码插入一小段代码的技术。当应用线程从堆中读取对象引用时,就会执行这段代码。需要注意的是,仅“从堆中读取对象引用”才会触发这段代码。

读屏障示例:

read

ZGC 中读屏障的代码作用:在对象标记和转移过程中,用于确定对象的引用地址是否满足条件,并作出相应动作。

ZGC 并发处理演示

接下来详细介绍 ZGC 一次垃圾回收周期中地址视图的切换过程:

  • 初始化:ZGC 初始化之后,整个内存空间的地址视图被设置为 Remapped。程序正常运行,在内存中分配对象,满足一定条件后垃圾回收启动,此时进入标记阶段。
  • 并发标记阶段:第一次进入标记阶段时视图为 M0,如果对象被 GC 标记线程或者应用线程访问过,那么就将对象的地址视图从 Remapped 调整为 M0。所以,在标记阶段结束之后,对象的地址要么是 M0 视图,要么是 Remapped。如果对象的地址是 M0 视图,那么说明对象是活跃的;如果对象的地址是 Remapped 视图,说明对象是不活跃的。
  • 并发转移阶段:标记结束后就进入转移阶段,此时地址视图再次被设置为 Remapped。如果对象被 GC 转移线程或者应用线程访问过,那么就将对象的地址视图从 M0 调整为 Remapped。

其实,在标记阶段存在两个地址视图 M0 和 M1,上面的过程显示只用了一个地址视图。之所以设计成两个,是为了区别前一次标记和当前标记。即第二次进入并发标记阶段后,地址视图调整为 M1,而非 M0。

着色指针读屏障技术不仅应用在并发转移阶段,还应用在并发标记阶段:将对象设置为已标记,传统的垃圾回收器需要进行一次内存访问,并将对象存活信息放在对象头中;而在 ZGC 中,只需要设置指针地址的第 42~45 位即可,并且因为是寄存器访问,所以速度比访问内存更快。

zgc2

5. 初探 ZGC 在 HBase 中的 GC 表现

ZGC 相关的调优参数究竟该如何配置,实在无法提供出来一个标准的答案。我们参考美团 ZGC 实践中的一个案例,来针对我所用的 HBase 集群来进行 ZGC 相关参数的设置,然后在 YCSB 的压测场景下,收集、分析 ZGC 的 GC 日志。

参考的文章链接是,其中上文有关 G1 和 ZGC 的理论知识剖析也是摘选自这篇文章。

https://www.secpulse.com/archives/137305.html

新一代垃圾回收器ZGC的探索与实践——美团
https://www.secpulse.com/archives/137305.html

此次测试使用的 HBase 集群由三个节点组成,物理机配置:24 核,内存 370G,其中为 HBase 分配了 31G 的堆内存。HBase 的版本是 cdh-6.3.2-hbase2.1.0。压测时使用的工具是阿里的 AHBench(基于 YCSB 包装了一层,方便对 YCSB 测试结果数据的收集和汇总),并保证在测试期间,唯一的变量是 GC 的使用方式。

YCSB 压测的场景是:数据量一个亿,分别在使用 G1 和 ZGC 的场景下跑 AHBench 的 full_test,然后对测试期间 G1 和 ZGC 的详细 gc 日志生成 GC 指标分析报告。

RegionServer 重要配置参数示例:

-Xms31G -Xmx31G
-XX:ReservedCodeCacheSize=256m -XX:InitialCodeCacheSize=256m
-XX:+UnlockExperimentalVMOptions -XX:+UseZGC
-XX:ConcGCThreads=2 -XX:ParallelGCThreads=6
-XX:ZCollectionInterval=120 -XX:ZAllocationSpikeTolerance=5
-XX:+UnlockDiagnosticVMOptions -XX:-ZProactive
-Xlog:safepoint,classhisto*=trace,age*,gc*=info:file=/var/log/hbase/region-server-zgc-%t.log:time,tid,tags:filecount=5,filesize=500m
--illegal-access=deny
--add-exports=java.base/jdk.internal.access=ALL-UNNAMED
--add-exports=java.base/jdk.internal=ALL-UNNAMED
--add-exports=java.base/jdk.internal.misc=ALL-UNNAMED
--add-exports=java.base/sun.security.pkcs=ALL-UNNAMED
--add-exports=java.base/sun.nio.ch=ALL-UNNAMED
--add-opens=java.base/java.nio=ALL-UNNAMED
--add-opens java.base/jdk.internal.misc=ALL-UNNAMED
-Dorg.apache.hbase.thirdparty.io.netty.tryReflectionSetAccessible=true

-Xms -Xmx:堆的最大内存和最小内存,这里都设置为 31G,程序的堆内存将保持 31G 不变。

-XX:ReservedCodeCacheSize -XX:InitialCodeCacheSize: 设置 CodeCache 的大小, JIT 编译的代码都放在 CodeCache 中,一般服务 64m 或 128m 就已经足够。这里设置的数值也只是参考了美团 ZGC 实践示例。

-XX:+UnlockExperimentalVMOptions -XX:+UseZGC:启用 ZGC 的配置。

-XX:ConcGCThreads:并发回收垃圾的线程。默认是总核数的 12.5%,8 核 CPU 默认是 1。调大后 GC 变快,但会占用程序运行时的 CPU 资源,吞吐会受到影响。

这个参数的设置效果,在 CDH 的 CPU 指标监控图例中就可以明显看得到。

cpu-load-zgc

在 ZGC 测试期间,我们观察到 CPU 的消耗较以往显著增加,尤其是在集群高负载的情况下格外明显,而其他使用 G1 GC 的 HBase 集群中的 CPU 负载趋势则如下图所示:

cpu-load-g1

-XX:ParallelGCThreads:STW 阶段使用线程数,默认是总核数的 60%。

-XX:ZCollectionInterval:ZGC 发生的最小时间间隔,单位秒,该参数的设置效果在 CDH 中的 GC 时间监控图例中得到体现。

zgc-time

正常情况下 GC 发生的频次,时间间隔均匀,正是两分钟(120s)。-XX:ZCollectionInterval=120。而且,在集群高负载的情况下,ZGC 的 GC 时间可以达到分钟级别,这也正印证了,ZGC 全程并发,不会影响到你的应用进程。因为,如果是秒级别甚至分钟级别的 STW,你的业务方早已提刀而来。G1 GC 场景下,GC 的消耗时间趋势如下图:

g1-time

我们在进行 G1 GC 调优设置参数的时候,期望的 GC 时间是在 100ms,但真实的情况是不管如何调整,GC 的耗时远超 100ms。

200ms GC 耗时均值中的 STW 的时间占比,将直接影响着 HBase 集群查询延时的占比。

-XX:ZAllocationSpikeTolerance:ZGC 触发自适应算法的修正系数,默认 2,数值越大,越早的触发 ZGC。

-XX:+UnlockDiagnosticVMOptions -XX:-ZProactive:是否启用主动回收,默认开启,这里的配置表示关闭。

-Xlog:设置 GC 日志中的内容、格式、位置以及每个日志的大小。

理解 ZGC 的触发时机

相比于 CMS 和 G1 的 GC 触发机制,ZGC 的 GC 触发机制有很大不同。ZGC 的核心特点是并发,GC 过程中一直有新的对象产生。如何保证在 GC 完成之前,新产生的对象不会将堆占满,是 ZGC 参数调优的第一大目标。因为在 ZGC 中,当垃圾来不及回收将堆占满时,会导致正在运行的线程停顿,持续时间可能长达秒级之久。

ZGC 有多种 GC 触发机制,总结如下:

  • 阻塞内存分配请求触发:当垃圾来不及回收,垃圾将堆占满时,会导致部分线程阻塞。我们应当避免出现这种触发方式。日志中关键字是“Allocation Stall”。
  • 基于分配速率的自适应算法:最主要的 GC 触发方式,其算法原理可简单描述为”ZGC 根据近期的对象分配速率以及 GC 时间,计算出当内存占用达到什么阈值时触发下一次 GC”。自适应算法的详细理论可参考彭成寒《新一代垃圾回收器 ZGC 设计与实现》一书中的内容。通过 ZAllocationSpikeTolerance 参数控制阈值大小,该参数默认 2,数值越大,越早的触发 GC。我们通过调整此参数解决了一些问题。日志中关键字是“Allocation Rate”。
  • 基于固定时间间隔:通过 ZCollectionInterval 控制,适合应对突增流量场景。流量平稳变化时,自适应算法可能在堆使用率达到 95%以上才触发 GC。流量突增时,自适应算法触发的时机可能会过晚,导致部分线程阻塞。我们通过调整此参数解决流量突增场景的问题,比如定时活动、秒杀等场景。日志中关键字是“Timer”。
  • 主动触发规则:类似于固定间隔规则,但时间间隔不固定,是 ZGC 自行算出来的时机,我们的服务因为已经加了基于固定时间间隔的触发机制,所以通过-ZProactive 参数将该功能关闭,以免 GC 频繁,影响服务可用性。日志中关键字是“Proactive”。
  • 预热规则:服务刚启动时出现,一般不需要关注。日志中关键字是“Warmup”。
  • 外部触发:代码中显式调用 System.gc()触发。日志中关键字是“System.gc()”。
  • 元数据分配触发:元数据区不足时导致,一般不需要关注。日志中关键字是“Metadata GC Threshold”。

更细致的 GC 日志分析,可以参考美团 ZGC 实践那篇文章中的分析思路。

6. ZGC 与 G1 GC 的数据统计对比

我们收集 ZGC 与 G1 GC 在相同压测场景下生成的详细 gc 日志,上传到https://gceasy.io/之后,分别得出的GC报告如下图所示:

6.1 G1

g1-report

6.2 ZGC

zgc-report

仅从这两个 GC 报告对比来看,ZGC 确实做到了几乎百分之百的 GC 时间在 10ms 内。

6.3 G1 与 ZGC 吞吐量相关指标比较

以下图例记录了相同 YCSB 压测场景下,G1 与 ZGC 各项指标比较。

读写吞吐量指标比较

gc-zgc-throughput

读写平均延时指标比较

average_lateency

G1 与 ZGCp999 延时指标比较

p999

以上指标对比,在不同的压测场景,不同的集群环境之下的结果可能会有所不同,不能代表线上真正的表现情况,希望大家如感兴趣,可以亲自尝试测试一波。

7. 总结

本篇文章为大家分享了 ZGC 的特点,简单记录了 ZGC 的一些核心技术,如着色指针、读屏障等。并在相同的 YCSB 压测场景下,分别测试了 G1 和 ZGC 在真实的应用环境中的 GC 的表现能力,并得出 GC 分析报告,从 GC 停顿时间和读写吞吐、延迟等方面,做了比较详细的对比,然后初步验证了以下几个观点:

  • ZGC 可以达到几乎百分百 GC 耗时在 10ms 内的目标
  • 通过设置参数,可以主动控制 ZGC 的 GC 发生频率
  • 与 G1 相比,ZGC 在 GC 过程中会消耗更多的 CPU

有关 GC 更深入的理解和使用,甚至进一步调优 ZGC 的表现能力,这将在后续的文章中继续和大家探讨。同时,本人对 GC 的认知有限,文中个别地方描述不恰当,或对实验数据心存异议的伙伴,还请及时告知。

8. 参考链接

https://www.secpulse.com/archives/137305.html

http://hbasefly.com/2016/05/21/hbase-gc-1/

http://hbasefly.com/2016/05/29/hbase-gc-2/

http://hbasefly.com/2016/08/09/hbase-cms-gc/


浏览 164
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报