发的项目总结做
1.你们公司的整个测试流程是怎样的(已在流程中,实际情境来写)
流程步骤:需求评审 → 测试计划制定 → 用例设计 → 用例评审 → 环境搭建 → 测试执行 → 缺陷跟踪 → 回归测试 → 测试报告 → 上线验收。
敏捷实践:迭代开发中配合每日站会,自动化测试集成到CI/CD流水线(如Jenkins)。
2.写测试用例的设计方法
常用方法包括:等价类划分、边界值分析、因果图、场景法、错误推测法、判定表法。
3.分别是怎么用到这些设计方法的 (举例子)
- 等价类:输入框测试(如手机号合法/非法格式)。
- 边界值:测试数值范围(如0-100的输入,测-1、0、100、101)。
- 场景法:模拟用户操作流程(如电商下单:登录→选商品→支付)。
- 错误推测:基于经验测常见问题(如未登录时提交订单)。
4.整个项目的bug大概有多少
- 视项目规模而定,中小型项目约50-200个,大型系统可能上千。
注:可补充说明缺陷密度(如每千行代码缺陷数)更科学。
5.印象深刻的bug
. 印象深刻的bug
- 案例:支付成功后订单状态未更新。
- 原因:第三方回调接口未处理超时,导致数据不一致。
6.看你们做过自动化测试,是UI自动化还是接口自动化,主要用的什么框架呢(写过自动化测试脚本)
- 接口自动化:主流框架如
Python+Requests/Pytest
、Postman+Newman
。- UI自动化:Web端用
Selenium
,App用Appium
。
7.几个人做测试,研发有几个人
- 示例:测试团队3人,研发团队12人(比例1:4),遵循敏捷模式。
8.你们调用的接口是内接口还是外接口
- 内接口:系统内部模块间接口(如订单服务调用库存服务)。
- 外接口:第三方接口(如支付宝支付、短信网关...)。
9.用到的测试工具有哪些
- 功能测试:Postman、JMeter、Fiddler。
- 自动化:Selenium、Pytest、Jenkins。
- 管理工具:JIRA、TestLink. Navicat。
- 数据库:DBeaver、MySQL Workbench。
10.测试环境是怎么搭建的
- 步骤:使用Docker容器化部署服务,Jenkins拉取代码构建,配置独立数据库,通过Nginx代理。
- 协作:与运维共同维护环境稳定性。
测试环境一般由开发搭建
11.简短的介绍一下你上一家公司是一家什么样的公司
- 行业:金融科技公司。
- 业务:为银行提供线上信贷系统,核心模块包括风控、授信、还款。
12.介绍一下你的项目主要是干什么的
- 项目名称:在线教育平台。
- 职责:负责课程管理、支付模块测试,覆盖功能、接口及性能测试。
13.分析潜在的需求,举个例子
- 案例:用户提出“支持导出数据”,潜在需求可能是“导出格式兼容Excel”或“大数据量分页导出”。
14.是基于什么场景下有这样的需求要去确认的
- 场景:用户要求“移动端适配”,需确认是否需考虑弱网、不同分辨率及离线场景。
15.说一下你负责模块是如何设计测试用例的
- 等价类:有效/无效账号密码组合。
- 边界值:密码长度6-20字符(测5、6、20、21位)。
- 场景法:登录后跳转、多设备登录冲突。
- 安全性:密码加密、错误次数锁定。
16.发现了bug之后你们是如何分析如何解决的
- 步骤:复现Bug → 抓包/日志定位(前端/后端) → 提缺陷单 → 协同开发修复 → 回归验证。
17.postman你主要用了哪些方法
- HTTP方法:GET、POST、PUT、DELETE。
- 高级功能:环境变量、Pre-request Script、Collection运行。
18.postman怎么使用断言的
19.什么阶段会使用到postman进行接口测试
- 接口调试:开发阶段协助验证接口逻辑。(UI界面为开发)
- 自动化测试:提测后通过Newman集成到CI。
20.jmeter性能的响应时间的依据是谁给的
产品需求(如用户要求3秒内响应),或参考行业标准(如2-5-8原则)。
21.写测试点你的思路布局是怎么样的
需求拆解 → 功能模块划分 → 正常/异常场景覆盖 → 优先级排序(核心功能优先)。
22.Linux是拿来做什么
- 日志分析:
grep
、tail
查看日志。- 服务部署:部署测试环境,执行Shell脚本。
- 性能监控:
top
、vmstat
监控资源。
1.你负责的项目多久迭代一次?
- 电商项目:通常采用敏捷开发,1-2周一次小迭代(Sprint),每月一次大版本上线。
- 紧急需求:如大促活动(双11)可能临时加迭代,单独走紧急发布流程。
2.开发和测试相关的项目周期流程?
|阶段|开发侧|测试侧|
|---|---|---|
|需求阶段|需求评审、技术方案设计|参与评审,编写测试计划|
|开发阶段|编码、单元测试|设计测试用例,准备测试数据|
|提测阶段|提交代码并部署测试环境|执行测试,提交缺陷|
|上线阶段|修复缺陷,发布生产环境|回归测试,验收报告,监控线上|
3.设计测试用例的时候会考虑哪些方法?(黑盒,白盒)
-
黑盒方法:
-
等价类/边界值:商品价格输入(如不允许负数)。
-
场景法:用户下单流程(加购→结算→支付→订单状态更新)。
-
错误推测:未登录用户尝试结算。
-
-
白盒方法(较少,需开发配合):
- 条件覆盖:优惠券代码分支(满减、折扣、叠加逻辑)。
4.怎么区分一个bug是前端还是后端?
-
前端Bug特征:
-
页面样式错乱、按钮点击无响应。
-
网络请求未发出(浏览器F12查看Network)。
-
-
后端Bug特征:
-
接口返回错误状态码(如500)、数据库未更新。
-
日志中抛出异常(如Java的NullPointerException)。
-
-
验证方法:
-
直接调用接口(Postman)复现问题 → 后端问题。
-
前端Mock正确响应数据 → 问题消失则前端问题。
-
5.前端的状态码有哪些?
- HTTP状态码:200(成功)、400(请求参数错误)、401(未授权)、403(无权限)、404(资源不存在)、500(服务器错误)。
- 自定义状态码:如电商中
1001=库存不足
,需结合接口文档判断。
6.接口测试里怎么做接口鉴权的?
-
Token(JWT):Header中携带
Authorization: Bearer <token>
。 -
OAuth2.0:模拟第三方授权流程获取
access_token
。 -
未传Token → 返回401。
-
Token过期 → 返回403并引导重新登录。
-
权限校验:普通用户访问管理员接口 → 返回403。
7.接口测试测试过接口加密相关吗?
-
加密场景:
-
敏感字段(如支付密码)通过AES/RSA加密传输。
-
签名验证:请求参数按规则排序后MD5/SHA256签名,防篡改。
-
-
测试方法:
-
使用Postman Pre-request Script生成加密参数。
-
验证服务端解密后数据是否正确(需开发提供加解密工具)。
-
8.介绍python+unnitest自动化流程?
-
框架结构:
bash
复制
下载
tests/
├── test_login.py # 测试类继承unittest.TestCase
├── common/ # 封装请求工具类
└── data/ # 测试数据(JSON/Excel) -
执行流程:
-
初始化(
setUp
):创建浏览器实例或登录获取Token。 -
测试用例(
test_xxx
):调用接口或操作页面。 -
断言(
assertEqual
):验证响应数据或页面元素。 -
清理(
tearDown
):关闭连接,清理测试数据。
-
-
集成CI:通过Jenkins定时执行或触发构建。
9.你是用的哪个工具做数据驱动测试?
-
核心工具:
-
Excel/CSV
:存储测试数据(如用户账号组合)。 -
Python
库:ddt
(装饰器驱动)、pytest.mark.parametrize
。
-
-
电商示例:
python
复制
下载
import ddt
@ddt.ddt
class TestPayment(unittest.TestCase):
@ddt.data({"amount": 100}, {"amount": 0.01})
def test_payment(self, data):
# 调用支付接口并断言结果
10.你写测试用例花的时间?
. 测试用例编写时间
-
新需求:1-2天(复杂模块如支付风控需3天+)。
-
依据:需求复杂度(如优惠券规则>页面UI)、历史用例复用率。
11.支付场景涉及到的你能考虑到哪些场景?(支付成功,支付争议,
支付退款,支付金额)
-
正向场景:
-
支付成功:金额正确、订单状态同步、库存扣减。
-
组合支付:余额+优惠券+第三方支付。
-
-
异常场景:
-
支付失败:银行卡余额不足、网络超时。
-
重复支付:订单防重提交(幂等性)。
-
退款流程:原路退回、部分退款、退款状态同步。
-
对账问题:支付成功但订单未更新(需人工介入对账)。
-
12.你进入到一个新的项目,你怎么快速熟悉?
-
4步法:
-
读文档:需求文档(核心流程如下单、支付)、接口文档。
-
问团队:与产品/开发确认业务优先级与风险点(如高并发场景)。
-
看数据:数据库表结构(订单表
order
、商品表product
)。 -
测核心:优先测试主链路(用户注册→加购→下单→支付→售后)。
-
-
辅助手段:
-
使用Swagger快速理解接口。
-
直接体验线上系统(如模拟用户下单)。
-
项目问题
你这个项目怎么开展的
- 项目架构:B2C电商系统(SpringBoot+Vue)
- 开展流程:
- 需求分析 → 拆解测试点(如优惠券叠加规则)
- 用例设计 → 边界值覆盖(满200减30,测199/200/201)
- 环境验证 → Docker部署+Postman接口调试
- 缺陷闭环 → JIRA跟踪支付超时类缺陷(修复率100%)
- 测试报告 → 输出核心模块测试覆盖率(95%+)
- 技术亮点:
- Charles弱网测试拦截支付回调
- MySQL订单表数据一致性校验
- 实习成果:迭代3次,累计提交缺陷62个,0漏测
你做了什么
- 主要职责:功能测试执行与基础质量保障
- 具体工作:
- 需求分析:参与3次迭代评审,协助拆解10+支付相关需求点
- 用例执行:完成200+手工测试用例验证,覆盖订单创建/支付/退款主流程
- 缺陷提交:累计发现32个有效缺陷(含2个支付金额计算逻辑错误)
- 文档维护:更新测试用例库,标记15处过期用例并补充边界值场景
- 实习成果:
- 掌握等价类/边界值等基础测试方法
- 熟练使用Postman进行接口功能验证
- 独立完成2个迭代版本的冒烟测试
- 缺陷修复验证通过率100%
你写用例的思维是什么怎么写用例的
你发现了什么印象深刻的bug
怎么解决的
这个bug给你带来了什么启示
bug给你们公司带来了什么损失
这个损失你们又是如何处理的
对工作环境有什么要求
怎么看加班,能接受什么程度的加班
什么时候能到岗
对游戏测试的理解
你玩的游戏有什么吸引你的地方
你的测试用例是怎么设计的
测试采用的是什么模型以及模型的优缺点
项目当中遇到的困难
提出的bug开发认为不是bug怎么办
测试文档怎么编写的(包括测试计划,总结等文档)
拿到需求文档做测试用例设计的时候会用到哪些工具?
测试用例评审是在什么阶段?
一个功能/一个需求是比较复杂的,测试用例太多,评审的时候如何能快速的知道有没有功能点遗漏的问题?
测试用例的优先级或者说侧重点是如何评判的呢?
冒烟测试一般是在什么阶段进行?
冒烟测试是只做了基本功能的正向测试吗?
冒烟测试做完了之后就是做功能测试,用具体的一个测试点来执行了,发现了bug,研发也改完了开始进行回归测试主要是测什么呢?
第一轮测试测试完发现了bug,研发改完之后,之前的bug是改掉了但是又出现了新的问题,然后又提出来去修改,这样每次都要再去执行核心功能点或者是冒烟测试,这样是比较浪费时间的,可能会严重影响到整个项目上线的时间,遇到这种问题如何去处理?
有了解过selenium里面设计模式的思想吗?
用例执行的代码跟获取元素的代码是放在一个文件里面还是不同的文件里面?有什么好处?
接口测试是做的单一接口测试还是什么?有没有模拟一个调用链有好几个接口连串的测?
单一接口测试主要测试哪些?
状态码有了解吗 400 401 403 500 200是什么意思?
在接口测试提交bug会区分是前端还是后端的bug吗?
在页面操作一个功能,执行测试,突然页面就崩掉了,页面提示有错误,接口请求报错,遇到这种bug是怎么去判断是服务端还是前端?
订单的测试点是什么?
订单模块涉及到的角色有哪些?
商品详情模块主要的侧重点什么?
性能测试主要是测什么?性能的指标是怎么定下来的?
发现有什么bug是印象比较深刻的吗?
自动化测试跟手动测试之间有什么关系?
如果说要将手动执行的用例要转为自动化,哪些可以转化?
1.上一个实习的项目是做的web端还是app端
2.实习的项目是一个什么样的项目
3.测试用例需要自己写还是有固定的测试用例去维护和修改
4.bug的生命周期
5.测试团队有多少人
6.在提bug的时候是如何确认这个问题是不是一个bug,bug在需求文档之外呢?
7.用例评审是自己评审吗
8.职业规划
9.通勤时间是多久
两个模块大概100条测试用例 20 - 30 bug
多种测试提交工具
adb
试用期
三个月
独立后
背题的文档
如何与开发沟通的