前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >衡量软件测试人员的工作效率指南

衡量软件测试人员的工作效率指南

作者头像
测试小兵
发布2020-11-03 16:08:16
8020
发布2020-11-03 16:08:16
举报
文章被收录于专栏:猪圈子猪圈子

怎么全面去衡量测试人员的工作效率,一直是比较头疼的问题,很多公司可能会以Bug的数量来作为考核点:

a. 制定每天必须发现的Bug数量....

b. 发现一个Bug 5块钱....

其实我们可以从以下指标综合考评,去评估衡量测试效率,每项指标都高,自然能够发现谁才真正做得好。

1.发现缺陷的质量:

同一个项目组内,运用测试管理工具,按优先级和严重等级,把每个人的缺陷做成柱状图和饼图,放到一个文档中,邮件发给大家,让组内成员了解自己的工作情况和其他人的工作情况。

同时也让开发人员,对每个测试人员的工作,做出评估,供绩效考核时参考。特别是发现非常隐蔽缺陷的测试人员,一定要重赏。

2.测试的有效性:

一般来说,提交Bug的有效性,体现了测试员是否能够正确理解系统,并发现问题,是否能够发现有效的问题。

很多时候,测试人员没有弄准确需求,或者是没搞清楚设计,一旦出现异常,就提交Bug。

不是和前面的缺陷相同,重复递交相同类型的缺陷,就是递交无效的Bug,导致后来很多缺陷,都被项目评审时拒绝,既耽误了时间,效率自然不高。

3.测试组员交叉测试,发现漏测问题数量:

经常是这样,一个测试人员测试结束,修复了全部的缺陷。这个时候,测试的模块和测试人员交叉一下,再测试,很有可能又发现很多问题。

这样我们可以对测试发现问题数量,进行统计。这样做,就迫使测试人员认真执行每一轮测试,每次测试都不敢懈怠。

4.遗漏到客户缺陷的比例:

一旦版本测试通过,发布上线以后,用户在使用过程中由于 环境非常复杂,同样会发现一些问题,我们也会对测试过程中发现的Bug分配到每个模块和具体的人。

但是,如果缺陷在测试环境中不能重现,只能在实际工作环境中出现,则不属于遗漏给用户的Bug,不计入漏测统计里面。有

5.递交的缺陷数量:

在同一个项目组内,每天递交的Bug数量,每周递交的Bug数量,每个版本测试结束,总共递交的Bug数量。

最终测试结束,算出每个人递交有效缺陷的百分比。

6.执行用例的数量:

同一天,每个测试人员,执行用例的数量。但是一定要去除那些不能够测试的功能模块,或者是被阻塞的模块,这些一定要考虑到。否则大家意见就大了呢!

7.编写测试文档的速度和质量:

每次编写测试用例时,大家都要编写部分模块的测试用例,我们也可以通过单位时间内编写case的数量、速度和质量,来区分每个人的效率,我觉得也是一种好方法。

8.评审发现问题的效率:

在组织部门内部的case评审时,同一个测试文档的评审,如果提出的修改建议比较多,并且很有参考价值。这样的测试人员,效率应该比较高,得考虑考虑加薪,呵呵。

9.测试工具使用的熟练程度:

当然,一个测试人员,对测试工具的熟练程度越高,使用技巧越强,一般来说,测试的效率就越高。

按常理来说,每个人不可能了解全部的自动化测试工具,我们只对常用的测试工具进行考核就可以了,还算人性化吧。

并且后面懂得较多的同事,给组内成员集体培训,使大家迅速掌握测试工具的基本使用,这才是我们的真正目的。

10.测试结果的分析水平:

对自动化的测试工具来说,特别是性能测试结束之后,我们要分析部分测试结果,如果你都不熟悉测试工具的分析,何谈效率呢?

所以测试结果的分析水平,也可以作为衡量测试效率的一个指标。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-10-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Python测试社区 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
测试管理
CODING 测试管理(CODING Test Management,CODING-TM)为您提供井然有序的测试协同管理工具服务,从测试用例库管理、制定测试计划,到协作完成测试任务,为测试团队提供敏捷测试工作方式,提高测试与研发团队的协同效率。提供可视化的工作视图以及数据报告,随时把控测试进度和规划。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档