某天,某位群友在JVM讨论群里发来一张GC log的图片。
其中主要的问题是YGC过长,每次耗时约为200ms。
使用的JVM参数如下:
-Xmn2048m -Xms4096m -Xmx4096m -XX:+PrintGC -XX:+PrintGCTimeStamps -XX:+PrintGCDetails -XX:+PrintHeapAtGC -XX:+PrintTenuringDistribution -XX:MetaspaceSize=128M -XX:MaxMetaspaceSize=128M
指定年轻代内存为2g,初始JVM内存为4g,最大JVM内存为4g。
这个问题引起了群友们的关注。
从GC log和JVM参数可以看出,GC算法使用默认的Parallel Scanvenge。
可以看到Eden区大小为1536M,两个Survivor区大小为256M。
得出-XX:SurvivorRatio = 6。
此外可以看到在GC时,desired survivor size 268435456 bytes = 256M,得出-XX:TargetSurvivorRatio = 100。
默认情况下,-XX:SurvivorRatio = 8,-XX:SurvivorRatio = 50。
然而并未设置这两个参数,一直怀疑是配置没有生效。
一时没有想到办法,有群友建议试着调整下 MaxGCPauseMills 或者 GCTimeRatio 参数。
然后效果都不好。
之后的某天,尝试使用jmap -heap pid打印应用的堆栈信息。
发现虽然写着SurvivorRatio = 8,但是E:S0:S1的比例并非是8:1:1。
于是开始寻找原因。
找到来自R大的回答:
http://hllvm.group.iteye.com/group/topic/35468
HotSpot VM里,ParallelScavenge系的GC(UseParallelGC / UseParallelOldGC)默认行为是SurvivorRatio如果不显式设置就没啥用。显式设置到跟默认值一样的值则会有效果。
因为ParallelScavenge系的GC最初设计就是默认打开AdaptiveSizePolicy的,它会自动、自适应的调整各种参数。
于是推荐群友尝试使用CMS,让这些配置固定下来,不做自适应调整。
但设置之后,发现YGC效果依旧不好。
显示发生4次YGC,耗时1.145s,平均耗时约286ms,情况反而更糟。
回头再次分析GC log。
发现日志中有这么一行。
new threshold 7 (max 15)
JVM中有个参数为晋升年龄阈值(-XX:MaxTenuringThreshold),默认值为15。
意思为在YGC时,超过该年龄的对象会被晋升到老年代。
但GC log中显示该阈值被修改成了7。
在年轻代对象晋升时,有一个判断条件如下:
动态年龄判断,大于等于某个年龄的对象超过了survivor空间一半,大于等于某个年龄的对象直接进入老年代。
得出,在某次YGC时,Survivor区中,年龄超过7的对象占用了Survivor空间一半以上。
而正常情况下,年轻代对象朝生夕死。
网络服务处理请求为毫秒级,YGC几秒甚至十几秒才发生一次。
多数年轻对象活不过1代。
于是,猜测该群友使用了本地缓存。
在得到肯定的回复后,详细询问了群友使用本地缓存的方法。
自行实现了一个本地缓存,类似于HashMap。
别的服务会每一分钟推送缓存数据用于同步。
在同步的时候不做diff操作,直接put。
举例:
缓存中保存Person类。
@Data
class Person {
private String name;
private Integer age;
}
缓存内容可能为:
{
"jjs":{
"age":27,
"name":"jjs"
}
}
缓存同步涉及两种操作:新增和覆盖。
两种操作均直接使用put操作实现,无论当前缓存key是否已经存在。
这样的操作方法在业务上完全没有问题。
但对于GC而言,每次缓存同步需要new很多新的对象,并且这些对象都将一直存活,直到被覆盖,或者晋升到老年代。
这些缓存对象首先会被分配到年轻代,在YGC时候,这些对象都会被标记为存活。
得到YGC耗时过长原因一:
年轻代中有太多存活的对象,增加了标记时间。
此外,HashMap是数组加链表的结构,使用Node结构用于保存key、value。
HashMap的Node结构如下:
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next;
}
每次put生成的node节点,很可能(hash冲突)被挂在已有node节点的next域上。
已有node为缓存,长期存活,很有可能位于老年代。
那么,就形成了老年代对象对年轻代对象的引用。
在YGC中,需要扫描Card Table中的dirty区域来识别被老年代对象引用的年轻代对象。
正常情况下,这种情形并不多。但在本文例子中,会大量存在。
得到YGC耗时过长原因二:
YGC又需要花费大量的时间在扫描Card Table上。
总结原因是操作本地缓存太频繁导致了YGC耗时过长。
回顾YGC的大致过程:
- 从根节点开始扫描年轻代对象,直到扫描到下个引用为非年轻代对象。(可以避免YGC扫描整个堆。)
- 扫描老年代dirty区域,即可扫描到被老年代对象引用的年轻代对象。(老年代被分为不同的块,Card Table字节数组中每个字节表示老年代中的一块。新分配对象时,触发写屏障,存在有老年代对象引用年轻代对象时,将对应的卡表设置为dirty。)
- 将Eden和From区中的对象复制到To区。如果To区已满,则直接复制到老年代。
YGC耗时过长问题的排查还是应该从两个点出发:
YGC时存活的年轻代对象太多。
老年代对象引用年轻代对象的情况太多。
解决方案:
修改代码需要一定的时间,群友采用了一种短期的办法。
修改了推送的周期。原来每一分钟推送一次。
YGC下降到18-25ms,但在缓存推送时,YGC时间仍然达到200ms。
两次缓存推送之间的对象都符合朝生夕死的弱分代假设,YGC时间正常。
后续修改思考/建议:
- 分批推送缓存,并且在接到推送的缓存时做diff操作,尽量修改已有对象而非新建对象。此举可减少长寿对象生成。
- 即使使用分批推送,在应用启动时,还是需要全量加载缓存。仍旧会面临应用刚启动时,YGC耗时过长的问题。
- 重新规划应用。因为经常变化的数据并不适合放在缓存中。
- 使用Redis缓存。Redis的响应时间为毫秒级,甚至只需几毫秒,并且无需考虑分布式下缓存同步问题。
- 使用CMS垃圾回收算法。因为默认和Parallel Scanvenge算法配合的老年代回收算法是Serial Old或者Parallel Old。该算法需要标记清理压缩,STW时间较长。