数据库和liunx基础:
数据库增删改查,链接,分组,子查询
Liunx常用命令:
Web:
- 功能测试
如何保证功能测试能够完全覆盖?(如何保证测试完全)
测试点挖掘到页面的每一个控件
你们测试点是如何挖掘的。(使用什么方法进行挖掘的)
根据需求画流程图,写测试点,使用等价类,边界值,场景法
测试用例分为几级,你们是如何划分的:
三级,冒烟,验收级,系统级
- API测试
你们进行接口测试的工具是什么:
Postman
简单介绍一下如何使用:
你们进行接口测试的时候是如何保证返回值等是正确的:
Test
- UI自动化测试
你们是如何进行UI自动化的:
使用用python语言和seleium框架进行的。
UI定位方法有多少种:
16种。
UI自动化时遇到过什么问题,是如何解决的。
可以考虑这几个方面:等待机制,框架,多重定位,动作链,页面跳转等
APP:
- 功能测试
与web相似
- API测试
与web相同
- 自动化测试
你是如何进行自动化的:
Python+appium
环境是如何搭建的:
首先:java 然后:android_sdk 然后:Appium
自动化测试遇到的问题以及解决办法
汉字无法输入,每次打开程序有权限弹框,速度慢
unicodeKeyboard resetKeyboard noReset 搜索引擎 uiautomator2
Appium的参数:
三个确定手机:platformName Android
platformVersion 版本号
deviceName 手机编号
应用:appPackage 手机包
appActivity 所在页面
automationName 引擎
cls.driver = webdriver.Remote('http://localhost:4723/wd/hub', desired_caps)
- 专项测试
专项报告有哪些内容:
测试结论
测试机型、测试结果
异常/BUG统计
专项测试有哪些:
兼容性:操作系统:版本厂商,屏幕大小,分辨率等
系统交互:切换,手势,旋转
网络:
如何进行网络测试的:
使用charles工具:
介绍一下charles是如何使用的。
流量测试:
Cpu:
内存:
稳定性:
升级:
安装;
环境测试:干扰,权限,边界:
消息推送:
- 性能测试
如何进行性能测试的?
使用jmeter性能测试工具:
项目:
- 项目组多少人
项目组人员比较多,具体多少我也不清楚,我只知道我所在的测试组是4个人
2、项目做了多久
项目是不断更新的,完善的,一个版本大概一周左右
3、测试流程
测试计划 → 测试设计 → 测试开发 → 测试执行 → 测试评估
4、你在项目中最大的贡献是什么
测试点全 能发现同事的漏测
5、你的模块多少条用例
我一共负责5各模块,设计了72条用例,报了25个BUG,其中严重的有10个,基本需求无法实现
6、印象最深的一个BUG
删除表数据后再次去重查询个数,程序运行错误,最后发现是编码
的问题
7、发现了多少个BUG,你发现了多少
报了25个BUG
8、BUG分级的依据
致命:基本功能无法实现
严重:一般功能无法实现
一般:不常用功能无法实现
提示:类似提示框不够完善
9、如何管理的测试用例
在禅道上进行编写,管理
10、提交的BUG里面包含什么
BUG标题,编号,所属模块,严重等级,影响版本,所属产品,所属项目,指派给谁,优先级,以及必要截图,文档,错误提示等附件
11、测试计划
在需求分析及评审之后
12、测试报告里面包含什么
测试基本,测试结果及缺陷分析,测试结论及建议
13、你认为测试报告里面最重要的部分是什么
个人认为,根据项目看,测试结论比较重要,可直观看出过没过;
根据程序看,缺陷分析比较重要,可直观看出缺陷集中在那一部分
14、如何进行需求点挖掘
依据用户需求和文档
15、BUG分类
可以按模块和严重程度
16、测试依据
依据是测试文档(不一致时取决于产品经理的看法)
- 测试用例的分类
- Web和app测试有哪些不同点。