巴黎的灯光下 发表于 2019-2-11 16:37:06

locust、lr对比

实验数据记录,验证locust与lr的测试结果。

之前一直用lr进行性能测试,对lr的各项指标比较熟悉,新工具locust上手,做下结果对比。验证工具差异,供同行参考。


采用简单场景验证:

访问测试站点首页、子类页面



第一次

首先loadrunner:

10vu 并发启动,运行3分钟


得到结果:

RT/TPS:1.9s/5.2



通过事务:950


服务端负载约9.4(一台测试服务器,忽略性能...)


其次locust:同样10vu 并发启动,运行3分钟,手动停止
得到结果:RT/RPS:2.1s/4.4通过事务:890服务端负载10(一台测试服务器,忽略性能...)
对比:
[*]loadrunner:RT/TPS:1.9s/5.2
[*]locust      :RT/RPS:2.1s/4.4
差距不算太大。
第二次首先loadrunner:100vu 并发启动,运行3分钟
得到结果:RT/TPS:13.95s/7
通过事务:1400
服务端负载:99......(这是一台测试服务器...这是一台测试服务器...)
其次locust:(经过漫长的等待,load average终于回到了1)同样100vu 并发启动,运行3分钟,手动停止
得到结果:RT/RPS:14.31s/6.9
通过事务:1125(由于locust是手动停止,而loadrunner是设置好的时间,所以在时间把控上有一些出入,影响到了总请求数量,不过不是主要关注的指标,可以忽略)服务端负载:108(没截到图......)
再对比:loadrunner:RT/TPS:13.95s/7locust      :RT/RPS:14.31s/6.9
结果还是差不多的,locust的程序我是跑在windows上的,人家官网都说了,建议使用linux。。。不过linux上亲测运行速度要快过Windows!
最后使用阿里的PTS对比下:由于PTS 的vu启动速度太慢,所以时间设置了3:30,另外,PTS可设置最大的超时限制是10s,100vu时测试站点大多响应时超过10s,所以只做了10vu的测试。同样10vu 并发启动,运行3分半
得到结果:RT/RPS:2.1s/4.9
通过事务:1055服务端负载12(一台测试服务器,忽略性能...)
10vu 的对比:
[*]loadrunner:RT/TPS:1.9s/5.2
[*]locust      :RT/RPS:2.1s/4.4
[*]PTS          :RT/RPS:2.1s/4.9

平均负载的值没有大的出入,测试服务器上有几个测试站点、计划任务再跑,小范围波动可忽略。
以上就是对比结果,个人觉得,locust完全可以代替lr。而且场景全是自己脚本写,自由度很高!

qqq911 发表于 2019-4-16 11:15:55

感谢分享

凡人小善 发表于 2019-8-19 10:10:55

看着不错,locas可以录脚本吗?比如一些复杂的业务

lllll4 发表于 2019-9-10 12:57:04

233311

szc123qq 发表于 2020-5-11 16:12:20

:time:

郭小贱 发表于 2020-7-8 11:14:25

locas基于python可以做压测,学习成本应该比lr低,学习了。

wyq0121 发表于 2020-10-15 15:35:13

这只是低并发场景,性能测试工具还是要看高并发时,那个比较好用,不容易崩,能适应高并发、多种协议,才会好用。

Miss_love 发表于 2020-12-25 17:14:36

感谢分享
页: [1]
查看完整版本: locust、lr对比