|
昨天碰到这么一个问题:
环境:
用两台机器运行loadrunner controller,一台笔记本(1个intel处理器,cpu1.4G,内存700多M,OS为2000profession)称为机器A;一台台式机(4个志强处理器,cpu2.4G/个,内存1G多,OS为2000server)称为机器B
现在在这两台机器上分别运行lr,同样的环境,同样的脚本(测试打开一个网页HTTP/HTML协议,只有一个transaction),同样的待侧对象server
结果:
1。机器A和机器B的CPU的利用率差不多都达到了80%左右
2。机器A的hit/second可以达到差不多1000左右;机器B的hit/second只能达到250左右(后来经过多次反复调整,发现最高指标也差不多就250左右)
3。server对机器A的Trans Response Time的指标差不多控制在2s左右,对机器B的指标差不多到10s左右
问题:
1。机器A和机器B在硬件上(特别是CPU上)有相当差别,为什么测试出来在同样情况下CPU的利用率却差不多?
2。机器A测试出来的指标为什么会和机器B测试出来的指标差别这么多?实际上机器B并没有真正给server加压,在机器B测试过程中,可以看到server的性能还有很大的余地
3。因为是system test,所以不是很清楚server的处理过程,但还是不明白为什么server对机器A和机器B的transaction Response Time为什么会有差别?也曾尝试两台机器同时执行脚本,在各自的运行环境下对server进行加压,但测试出来的结果仍和上述结果2和3差不多 |
|