发的项目总结做

1.你们公司的整个测试流程是怎样的(已在流程中,实际情境来写)

流程步骤:需求评审 → 测试计划制定 → 用例设计 → 用例评审 → 环境搭建 → 测试执行 → 缺陷跟踪 → 回归测试 → 测试报告 → 上线验收。

敏捷实践:迭代开发中配合每日站会,自动化测试集成到CI/CD流水线(如Jenkins)。

2.写测试用例的设计方法

常用方法包括:等价类划分、边界值分析、因果图、场景法、错误推测法、判定表法。

3.分别是怎么用到这些设计方法的 (举例子)

4.整个项目的bug大概有多少

5.印象深刻的bug

. 印象深刻的bug

6.看你们做过自动化测试,是UI自动化还是接口自动化,主要用的什么框架呢(写过自动化测试脚本)

7.几个人做测试,研发有几个人

8.你们调用的接口是内接口还是外接口

9.用到的测试工具有哪些

10.测试环境是怎么搭建的

11.简短的介绍一下你上一家公司是一家什么样的公司

12.介绍一下你的项目主要是干什么的

13.分析潜在的需求,举个例子

14.是基于什么场景下有这样的需求要去确认的

15.说一下你负责模块是如何设计测试用例的

16.发现了bug之后你们是如何分析如何解决的

17.postman你主要用了哪些方法

18.postman怎么使用断言的
19.什么阶段会使用到postman进行接口测试

20.jmeter性能的响应时间的依据是谁给的

产品需求(如用户要求3秒内响应),或参考行业标准(如2-5-8原则)。

21.写测试点你的思路布局是怎么样的

需求拆解 → 功能模块划分 → 正常/异常场景覆盖 → 优先级排序(核心功能优先)。

22.Linux是拿来做什么

1.你负责的项目多久迭代一次?

2.开发和测试相关的项目周期流程?

|阶段|开发侧|测试侧|
|---|---|---|
|需求阶段|需求评审、技术方案设计|参与评审,编写测试计划|
|开发阶段|编码、单元测试|设计测试用例,准备测试数据|
|提测阶段|提交代码并部署测试环境|执行测试,提交缺陷|
|上线阶段|修复缺陷,发布生产环境|回归测试,验收报告,监控线上|

3.设计测试用例的时候会考虑哪些方法?(黑盒,白盒)

4.怎么区分一个bug是前端还是后端?

5.前端的状态码有哪些?

6.接口测试里怎么做接口鉴权的?

7.接口测试测试过接口加密相关吗?

8.介绍python+unnitest自动化流程?

  1. 框架结构

    bash

    复制

    下载

    tests/
    ├── test_login.py # 测试类继承unittest.TestCase
    ├── common/ # 封装请求工具类
    └── data/ # 测试数据(JSON/Excel)

  2. 执行流程

    • 初始化(setUp):创建浏览器实例或登录获取Token。

    • 测试用例(test_xxx):调用接口或操作页面。

    • 断言(assertEqual):验证响应数据或页面元素。

    • 清理(tearDown):关闭连接,清理测试数据。

  3. 集成CI:通过Jenkins定时执行或触发构建。

9.你是用的哪个工具做数据驱动测试?

10.你写测试用例花的时间?

. 测试用例编写时间

11.支付场景涉及到的你能考虑到哪些场景?(支付成功,支付争议,
支付退款,支付金额)

12.你进入到一个新的项目,你怎么快速熟悉?

项目问题
你这个项目怎么开展的

  1. 需求分析 → 拆解测试点(如优惠券叠加规则)
  2. 用例设计 → 边界值覆盖(满200减30,测199/200/201)
  3. 环境验证 → Docker部署+Postman接口调试
  4. 缺陷闭环 → JIRA跟踪支付超时类缺陷(修复率100%)
  5. 测试报告 → 输出核心模块测试覆盖率(95%+)

你做了什么

  1. 需求分析:参与3次迭代评审,协助拆解10+支付相关需求点
  2. 用例执行:完成200+手工测试用例验证,覆盖订单创建/支付/退款主流程
  3. 缺陷提交:累计发现32个有效缺陷(含2个支付金额计算逻辑错误)
  4. 文档维护:更新测试用例库,标记15处过期用例并补充边界值场景

你写用例的思维是什么怎么写用例的
你发现了什么印象深刻的bug
怎么解决的
这个bug给你带来了什么启示
bug给你们公司带来了什么损失
这个损失你们又是如何处理的
对工作环境有什么要求
怎么看加班,能接受什么程度的加班
什么时候能到岗
对游戏测试的理解
你玩的游戏有什么吸引你的地方
你的测试用例是怎么设计的
测试采用的是什么模型以及模型的优缺点
项目当中遇到的困难
提出的bug开发认为不是bug怎么办
测试文档怎么编写的(包括测试计划,总结等文档)

拿到需求文档做测试用例设计的时候会用到哪些工具?
测试用例评审是在什么阶段?
一个功能/一个需求是比较复杂的,测试用例太多,评审的时候如何能快速的知道有没有功能点遗漏的问题?
测试用例的优先级或者说侧重点是如何评判的呢?
冒烟测试一般是在什么阶段进行?
冒烟测试是只做了基本功能的正向测试吗?
冒烟测试做完了之后就是做功能测试,用具体的一个测试点来执行了,发现了bug,研发也改完了开始进行回归测试主要是测什么呢?
第一轮测试测试完发现了bug,研发改完之后,之前的bug是改掉了但是又出现了新的问题,然后又提出来去修改,这样每次都要再去执行核心功能点或者是冒烟测试,这样是比较浪费时间的,可能会严重影响到整个项目上线的时间,遇到这种问题如何去处理?
有了解过selenium里面设计模式的思想吗?
用例执行的代码跟获取元素的代码是放在一个文件里面还是不同的文件里面?有什么好处?
接口测试是做的单一接口测试还是什么?有没有模拟一个调用链有好几个接口连串的测?
单一接口测试主要测试哪些?
状态码有了解吗 400 401 403 500 200是什么意思?
在接口测试提交bug会区分是前端还是后端的bug吗?
在页面操作一个功能,执行测试,突然页面就崩掉了,页面提示有错误,接口请求报错,遇到这种bug是怎么去判断是服务端还是前端?
订单的测试点是什么?
订单模块涉及到的角色有哪些?
商品详情模块主要的侧重点什么?
性能测试主要是测什么?性能的指标是怎么定下来的?
发现有什么bug是印象比较深刻的吗?
自动化测试跟手动测试之间有什么关系?
如果说要将手动执行的用例要转为自动化,哪些可以转化?
1.上一个实习的项目是做的web端还是app端
2.实习的项目是一个什么样的项目
3.测试用例需要自己写还是有固定的测试用例去维护和修改
4.bug的生命周期
5.测试团队有多少人
6.在提bug的时候是如何确认这个问题是不是一个bug,bug在需求文档之外呢?
7.用例评审是自己评审吗
8.职业规划
9.通勤时间是多久

两个模块大概100条测试用例 20 - 30 bug
多种测试提交工具
adb
试用期
三个月
独立后
背题的文档
如何与开发沟通的