51Testing软件测试论坛

 找回密码
 (注-册)加入51Testing

QQ登录

只需一步,快速开始

微信登录,快人一步

手机号码,快捷登录

查看: 3150|回复: 8
打印 上一主题 下一主题

[原创] 我是测试新手,正在逐步熟悉LR,可是公司马上叫我做WEB性能测试,我不会,(请看正文)

[复制链接]

该用户从未签到

跳转到指定楼层
1#
发表于 2011-5-24 16:44:43 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
我是一个刚上班的测试新手,之前学过LR,现在正逐步熟悉LR。公司现在需要做WEB的压力测试,可是我一头雾水,怎么设计场景、怎么开展这个测试呀?
LR中我会插入事务、插入集合点、参数化、插入注释、插入检查点、关联、ip欺骗等常用功能,可是应用到项目实践中来,我就蒙了啊,哪位高手给我指一条道吧,感激不尽,谢谢了。
要求是:
1、多少用户并发连接导致系统崩溃
2、多少用户同时在线导致系统崩溃
3、大数据量(多少数据量访问时导致系统崩溃)
环境:
中间件tomcat、websphere、weblogic
现在用的是tomcat
系统:winxp
如果有愿意给我指导的加我QQ也行453844041
真的感激不尽,谢谢了。
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏
回复

使用道具 举报

该用户从未签到

2#
 楼主| 发表于 2011-5-24 16:46:32 | 只看该作者
在线等
回复 支持 反对

使用道具 举报

该用户从未签到

3#
 楼主| 发表于 2011-5-24 16:50:34 | 只看该作者
没人愿意回答吗?简单的给我叨咕一下也行啊。
回复 支持 反对

使用道具 举报

该用户从未签到

4#
发表于 2011-5-24 20:01:39 | 只看该作者
1、多少用户并发连接导致系统崩溃
    步骤:先通过工具添加用户,自己先估计下大体能够使系统崩溃的数量,然后设置集合点,让用户同时登录操作,看下会不会崩溃,如果不会,则增加并发数,如果崩溃,则用折半的方式找出崩溃点。系统崩溃一般内存抗不住或者数据库处理不过来造成的。你需要监控下数据库和tomcat的内存。
2、多少用户同时在线导致系统崩溃
   这个,录制的时候,你录制一个业务流程,在Action中,让其一直跑就行了。设置用户递增时间和操作持续时间。方法与1类似吧。
   
3、大数据量(多少数据量访问时导致系统崩溃)

    这个如果复杂点,你就多录几个业务场景,多用户并发,如果没时间,感觉重用下1的信息就性。


如果你基本的操作都会,短时间拿出方案的话,就做最基本的吧。重点是造登录用户和监控系统资源。
我也就会这点了,希望有所帮助。
回复 支持 反对

使用道具 举报

该用户从未签到

5#
 楼主| 发表于 2011-5-25 10:21:28 | 只看该作者
谢谢这位仁兄,有帮助,让我的思路更清晰了不少。
第一个问题我之前做的就像你描述的那样:设置集合点,估计多少用户同时并发导致崩溃,完了试着增加或减少Vuser,可是到最后不知道怎么看,什么样的现象是属于崩溃?
第二个和第三个我按着你的指导去试着做一下。
谢谢你啦!谢谢这么耐心的写这么多。
回复 支持 反对

使用道具 举报

该用户从未签到

6#
发表于 2011-5-25 14:01:12 | 只看该作者
帮顶喽
回复 支持 反对

使用道具 举报

该用户从未签到

7#
发表于 2011-5-26 17:08:05 | 只看该作者
性能测试工具不是最重要的。首先你药了解你手上的那个产品,内部的数据流向,以及用户的使用习惯,web项目的话还要考虑pv和uv,根据这些先设计一个数学模型,然后才考虑要安排多少的vuser去施压,否则就算你把系统压崩溃了,也不一定找到性能瓶颈的,另外就是测试数据,数据库需要预设多少数据量,网络带宽需不需要模拟,需不需要设集合点?等等。
回复 支持 反对

使用道具 举报

该用户从未签到

8#
发表于 2011-5-26 17:27:55 | 只看该作者
顶下,好贴
回复 支持 反对

使用道具 举报

该用户从未签到

9#
发表于 2011-11-30 09:23:05 | 只看该作者
恩,这个贴要顶一个.....!!!
回复 支持 反对

使用道具 举报

本版积分规则

关闭

站长推荐上一条 /1 下一条

小黑屋|手机版|Archiver|51Testing软件测试网 ( 沪ICP备05003035号 关于我们

GMT+8, 2024-11-27 03:13 , Processed in 0.072976 second(s), 27 queries .

Powered by Discuz! X3.2

© 2001-2024 Comsenz Inc.

快速回复 返回顶部 返回列表