首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >测试~python库介绍(一) opencv

测试~python库介绍(一) opencv

作者头像
用户5521279
发布2020-12-24 10:54:43
发布2020-12-24 10:54:43
82100
代码可运行
举报
文章被收录于专栏:搜狗测试搜狗测试
运行总次数:0
代码可运行

前言

从事测试工作已有4年了,期间通过python编写了很多自动化脚本,接下来的日子和大家分享一下测试工作上常用的python库,适合常年从事黑盒测试的同学了解一些入门级技巧。

UI响应时间评测~前身

就在昨天,服务端给测试提了一个评测需求,从APP点击到皮肤商城首页加载完成的时间,并对比竞品。如果只有前者,我们可以通过埋点的形式获取,但涉及竞品就只能通过视频数帧的形式了。

这个需求如果放在4年前,我的做法是这样的

1、取一款60FPS手机(若粒度精细可使用iPhone的慢动作,最高可达240fps),使用支架固定,打开开发者指针位置;

2、取测试机放在镜头前,手动点击app,跳转完成后清除数据重复操作;

3、用KMplayer播放视频,按F键一帧一帧的计算图像变化,算出启用加载的总时长。

过程和结果一般会是这样的o(╥﹏╥)o

是的,数着数着就瞌睡了,然后从头再来\(^o^)/~

视频自动拆帧~opencv

如今,python可以完美的解决这种问题,今天给大家介绍可以实现拆帧的一个python库:opencv-python,通过视频拆帧的形式解决所有突发的不复用的评测需求。

以python3为例,首先安装python-opencv库:

pip install opencv-python

(注意:安装时的库名称是opencv-python,而不是python-opencv)

通过调用“adb shell screenrecord”录制一段操作视频(目前华为设备屏蔽了screenrecord接口,只能通过其他途径录制),然后调用视频进行拆帧,并将图片保存在本地,代码如下:

代码语言:javascript
代码运行次数:0
运行
复制
import cv2
# 打开目标视频
video = cv2.VideoCapture("D:\\Test\\MyVideo_1.mp4")
# 获取视频的帧率
fps = video.get(cv2.CAP_PROP_FPS)
fps_id = 1      # 记录帧数
timeF = 1       # 隔几帧取一张图片
image_id = 0    # 图片编号
# rval:是否读取成功,frame:图片的内容
rval, frame=video.read() 
while rval:
    if (fps_id%timeF == 0):
        image_id +=1
        print(image_id)
        # 保存图片到指定目录
        cv2.imwrite(r"D:\\Test\\img\%d.jpg"%image_id, frame)
    fps_id = fps_id+1
cv2.waitKey(1)
video.release()  

结果如下:

文件夹设置超大图标,滚动找到起始点和结束点的图片,算得帧差,并乘以每帧的时间,就是我们要的结果了。

如果是复用性强的需求,还可以通过截取图片的特定部位,计算RGB色值/OCR识别文案,来判断起始位置,实现全自动化评测。

结语

opencv拆帧就介绍到这里,还在做黑盒手工评测的同学可以参考这个方法,并可以学习下RGB/OCR识别来辅助进行评测。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-12-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 搜狗测试 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档