1.使用appium框架
由于appium比较熟悉,想着使用appium框架来统计时长
使用adb来启动app,启动后计时,然后循环查找首页特定的某个元素,一旦找到停止计时,然后计算时差来得出app的启动时长
理想很丰满,现实很骨感,通过代码实现来看,查找元素是需要时间的
long start = System.currentTimeMillis();
//启动后查找首页元素,找到后计算时间
long end=0;
int i=0;
while (true) {
try {
WebElement ll = driver.findElement(By.xpath("//android.widget.TextView[@text='立即清理']"));
// if (ll.get(1).getText().equals("立即清理")) {
end = System.currentTimeMillis();
System.out.println(ll.getText()+"::"+i);
// ll.click();
break;
// }
}catch (Exception e) {
System.out.println((System.currentTimeMillis()-start)+":::"+i);
}
i++;
}
代码执行结果来看,当在首页进行findelement的时候,由于首页控件很多,导致查找变慢找到元素就需要1400ms,而app的热启动在几百毫秒内,根本无法满足需求……
由此看来,此方式无法实现,主要原因是查找元素需要耗时,耗时超过了启动时间,这还统计个球……
2.暂时没有想到其他方式,好像只能是通过录屏的方式来实现了
最早接触的录屏方式是通过手动录屏,就是拿个手机或摄像头,将app启动的全程录下来,然后对视频进行分帧,找到起始点,计算总时长。启动时长又分冷启动和热启动,而且还需要多次的数据来求平均,所以手动录制和分帧的工作有些麻烦。
暂时制定的规则是冷启动和热启动各5次,来求平均值
将手动改为自动,是自动化测试的最终目的
新接触到的采集工具,是通过脚本的方式来实现的
1.使用adb start命令来启动app
2.使用screenrecord命令来开始录屏
3.将screenrecord录制时间设为5s或6s,录屏结束后,拷贝到电脑本地
4.使用FFmpeg框架,来对视频进行每秒60的分帧(分帧后视频的帧数会很大,影响后边图片对比的速度,个人觉得没必要进行分帧)
5.分帧后生成一个新的视频,使用stagesepx框架来进行图片对比,框架基于opencv进行图片对比,添加了分组算法,将视频分为动态组和静态组,app启动的视频,最开始一组肯定是在桌面静态的,当app打开时是静态的,查找静态组的end时间,即作为启动app的开始时间,然后查找对比成功的静态组,某个组存在该图片,则说明app进入了首页并且渲染完毕了(因为是静态了),此为终点
cutter = VideoCutter()
res = cutter.cut(video)#将视频进行分帧
print('开始判断状态:')
stable, unstable = res.get_range()#获取到静止和动态的所有分组
print('simmmmmm:', stable)
for item in stable[:]:#遍历静止的所有分组
# print(item.start_time, '-->', item.end_time, flush=True)
print("ssssssss:::", item)
# 检查最后一个阶段中是否包含图片 template.png
res = item.contain_image(template)
# print(res, flush=True)
# eg. {'target_point': [550, 915], 'target_sim': 0.9867244362831116, 'ok': True}
print('simmmmmm:', res['target_sim'])
if res['target_sim'] > 0.7:
print('starttime::::', item.start_time, 'endtime:', stable[0].end_time)
return item.start_time - stable[0].end_time #对比成功的静止分组-第一个静止分组的end时间(也就是在桌面的时间)