小文0111 发表于 2019-4-9 15:09:29

震惊性能测试圈的经典案例!!

案例一:回收器选择不当导致频繁FGC【问题描述】使用单台8C8G压力机Jmeter压测A系统,约3mins内存就占满4G,频繁出现FGC。

【性能场景】单机模式下,使用500并发持续压测http明文接口;默认jvm配置:-Xms1024m -Xmx2048m -XX:NewSize=512m。
【分析和调优过程】1. 怀疑依赖jar包的方法导致内存泄露,打印dump内存文件进行分析,占用内存较大对象都是比较底层方法,没有线索。排查jar包内的方法,是否存在大对象或者一直new对象的操作,方法都很简单,并没有上述情况。
2. 转变思考方向,从jvm调优入手。加大堆内存:-Xms4096m-Xmx4096m -XX:NewSize=512m –Xss512k,FullGC频率比之前降低,但对压测结果并没有改善;继续调整:-Xms4096m-Xmx4096m -XX:NewSize=512m –Xss256k,FullGC频率又有所降低。
3. 查询当前jvm的相关信息,发现默认使用的UseParallelGC(新生代用ParallelGC回收器, 老年代使用串行回收器)收集器。在多核大并发情况下,CMS回收器性能更优。jvm参数开启CMS回收器,并增加CMS回收器相关配置: -XX:+CMSClassUnloadingEnabled -Xmx4096m -Xms4096m-XXermSize=512m -Xss256k -XX:CMSInitiatingOccupancyFraction=75-XX:+UseConcMarkSweepGC,性能问题解决,FullGC频率降低10分钟1次,每次FullGC都比较彻底,长时间压测性能结果很稳定。

案例二:堆内存参数设置不当导致频繁FGC
【问题描述】
现象:使用jvm默认收集器时,FGC很正常。开启cms收集器后,FGC10几秒1次,观察内存情况,发现old区内存增长很快。默认jvm配置如下:-XX:+CMSClassUnloadingEnabled–Xmx4096m –Xms4096m -XX:+UseConcMarkSweepGC。
【分析和调优过程】1.      思考发生FGC的原因,Old区内存不够了,然而jvm配置了足够大的堆内存。用jmap –heap pid,查看了一下内存分配的情况。发现jvm默认分配给Eden区只有256Mb,s0和s1区只有32Mb。

2.      回顾一下发生YGC时,会将没有回收的对象S0+eden -> S1,默认设置新生代很小,导致S1装不下由S0+eden复制而来的对象,会直接放入老年代内存,导致Old内存迅速增长。现象与猜想是否正确呢,jvm调优来验证一下。调整为:-XX:NewRatio=3 -XX:SurvivorRatio=8-XX:+CMSClassUnloadingEnabled-Xmx4096m -Xms4096m -XX:+UseConcMarkSweepGC。
3.      一时心急,把年轻代设置放在了最前面,结果服务启动报错,Too smallfor new size specified。调整一下位置:-XX:+CMSClassUnloadingEnabled-Xmx4096m -Xms4096m -XX:NewRatio=3-XX:SurvivorRatio=8-XX:+UseConcMarkSweepGC。
4.      查看一下此时内存分配。压测结果稳定,没有再出现FullGC的情况。


案例三:Tomcat大量线程阻塞【问题描述】现象:一发布接口,并发10路,运行一分钟多,接口开始一直失败,LR显示超时,如下图:

【分析过程】
1.使用Jstack导出线程快照,用IBM一个线程分析工具查看,发现有大量线程在等待,如下图:


2.查看详细的线程信息发现处于blocked状态的都在争同一个资源,而且就是状态runnable锁住的资源。并且与hbase有关。如下图:



3. 与开发沟通后,怀疑定义了一个全局变量(hbase客户端初始化)导致的。改成每个线程都去初始化一个实例。







页: [1]
查看完整版本: 震惊性能测试圈的经典案例!!