如何评估测试人员写BUG的水平
本帖最后由 liuygneusoft 于 2010-10-23 14:59 编辑这是我的想法,不知是否公平
BUG质量=测试人员本人发现的所有有效BUG数/针对测试人员本人发现的所有BUG的沟通交流次数
值越低质量越高,交流越多说明BUG描述的不好,如果BUG写完后根本不用交流开发人员就修复了BUG
说明BUG描述得很到位 最简单的评定方法就是测试人A写的bug让测试人B去看,如果B能看懂说明A写的不错,可以规定界面问题必须截图说明,最好在图上写上备注。 楼上说的不错,我说的是如何去评估,不是如何做到写高质的BUG,问题是要可执行性 ,我上面写的就是依赖于测试管理系统,一般的测试管理系统都可对都BUG进行交流,只要交流了系统自然记了下来 再有按二楼说的,如项目中有10个测试人没,你如何去操作呀这个评估呀,肯定得接合测试管理软件来执行 把日常发现的BUG集中起来按我上面的公式来分析 理解 表达 描述信息的问题, BUG质量=测试人员本人发现的所有有效BUG数/针对测试人员本人发现的所有BUG的沟通交流次数
但凭这个公式评估可能不够准确,不排除,开发理解不到位,或理解存在偏差的问题 BUG质量=测试人员本人发现的所有有效BUG数/针对测试人员本人发现的所有BUG的沟通交流次数
这个公式我觉得还是挺有价值的。
另外我觉得有些比较久才修改的BUG就可能不太适用了——因为这些BUG修改的时候,可能界面会修改、操作步骤会改动……针对这情况,我觉得可以乘以一个系数,这个系数与当前统计阶段的系统的外部改动(界面修改、步骤修改等)相关。 这个,评估此项内容没有什么意义吧。
因为如果开发人员不理解,自然会询问,问多了,如果测试人员还不会调整写缺陷的方式,那么此人根本就不胜任工作。
只要稍微工作一下,即使为了自己不麻烦,一些不好的习惯也会修正的。 这个测试经理去看一下就知道了........
非得这么量化,你的参照值呢?
或许参照值可以通过团队的平均值来计算,但是这个只能衡量一个测试人员在团队中的水平 听大家讨论. 基本上没有很好的办法要评估,除非大家写相同的模块的用例
页:
[1]