
最近面试了一位有着五年软件测试经验的候选人。
简历上写着"熟练使用AI赋能自动化测试",我心想这应该有料,就问了一个很实际的问题:
"现在公司都在说AI赋能自动化,你平时工作里到底是怎么借助AI落地自动化测试的?是只拿来写写代码,还是有完整的一套流程打法?"
他张口就来:
"平时不会写的自动化脚本直接丢给AI生成,复制粘贴就能跑,省事儿又快捷。"
我接着往下问:
"那AI生成的脚本你敢直接上线集成吗?有没有冗余代码?定位稳不稳?页面元素变了怎么办?环境切换、多机型兼容,AI能直接适配吗?"
"用AI做自动化,难道就只是单纯帮你写几行代码就完事儿了?"
小伙子当场就懵了,愣了半天说不出完整逻辑,最后憋出一句:"基本都是靠AI生成,自己简单改一改。"
其实面试到这里,我心里已经有数了。
这个回答其实暴露了当下很多测试工程师对 “AI 自动化测试” 的认知误区:把 AI 只当成了 “免费码字工”,以为能生成可运行的脚本,就算掌握了 AI 赋能的核心。
如果这道题你也不知道怎么回答,可以加入「AI 进化社」学习,里面涵盖了完整的能拿捏面试官的AI 测试必考题库和AI 测试项目实战技能,覆盖软件测试开发全流程AI 赋能。
这道题到底在考察什么?
很多人以为这道题问的是"你会不会让AI写自动化代码"。
错了。
这道题真正考察的是:AI时代下,测试工程师是否具备自动化测试全流程的完整落地思维、风险把控能力和体系搭建能力。
说白了,面试官想听的不是"AI帮我写了多少行代码",而是"你怎么用AI把自动化测试从'能跑'变成'能扛'"。

我见过太多做自动化的同学,有一个共同的误区:以为把需求丢给AI,能生成脚本、能跑通用例,就叫"会AI自动化测试"了。
但大家一定要搞明白一件事:AI能帮你提效写代码,不代表能帮你把控自动化质量和工程落地。 这完全是两码事。
结合我多年的管理和AI提效经验,真正能落地、能在面试中加分、能解决实际工作痛点的 AI 自动化测试,绝不是 “一键生成脚本” 这么简单,而是要搭建起三层完整的实战逻辑,每一层都要融入人工的思考和把控,让 AI 成为提效工具,而非 “甩手掌柜”。
这三层缺一不可,少一层你的自动化就是"玩具",不是"工具"。
第一层:用AI做自动化前置拆解,先把骨架搭好
很多人做自动化测试的第一步就是写代码,这本身就走偏了 —— 没有清晰的场景梳理和用例设计,写出来的脚本要么覆盖不全,要么偏离业务核心。
而 AI 的价值,首先就体现在帮我们高效完成自动化测试的前置工作。
所以做自动化最大的坑,就是一上来就写代码。
正确的做法:先用AI做前期拆解。
把产品需求文档、业务流程图、页面原型全部整理好,用精准的语言描述业务痛点和测试目标,然后交给 AI 协助梳理:
比如让 AI 从繁杂的需求中提炼核心业务场景,区分出哪些流程适合做自动化(比如高频回归的正向流程)、哪些适合手动测试(比如偶发的异常场景);让 AI 帮忙提炼核心接口字段、页面关键元素,划分模块优先级;甚至让 AI 基于业务逻辑设计测试用例,梳理校验点、断言逻辑和异常分支。
详细的可参考:
| 拆解维度 | AI输出内容 | 人工复核要点 |
|---|---|---|
| 业务场景 | 主流程、分支流程、异常流程 | 是否遗漏高频回归场景 |
| 核心接口 | 登录接口、商品接口、订单接口、支付接口 | 接口依赖关系是否正确 |
| 页面元素 | 输入框、按钮、下拉菜单、弹窗 | 元素定位方式是否稳定(id > name > css > xpath) |
| 模块优先级 | P0核心流程、P1重要功能、P2一般功能 | 是否符合业务实际 |
| 断言逻辑 | 页面跳转、数据校验、状态变更 | 断言是否可判定、不模糊 |
| 异常分支 | 网络中断、超时、非法输入、权限不足 | 异常场景是否完整 |
我常用的Prompt模板是这样的:
角色:你是一位资深自动化测试工程师,精通playwright+pytest框架。
任务:请基于以下电商订单流程,拆解出适合自动化的测试场景。
要求:
1. 区分正向流程和异常流程
2. 每个场景标注优先级(P0/P1/P2)
3. 列出每个场景需要校验的关键断言点
4. 标注哪些场景适合UI自动化,哪些适合接口自动化
输入:[粘贴需求文档或业务流程图]
这个过程中,AI 能帮我们省去逐行梳理、反复核对的时间,但绝不是完全依赖 AI。
比如 AI 可能会遗漏一些小众但关键的异常场景,这就需要我们结合业务经验去补充;对于核心模块的优先级划分,也要基于项目上线节奏和用户使用频率去调整。
先靠 AI 搭好自动化的 “骨架”,明确测试范围和核心目标,后续的代码编写才不会盲目。
这一步如果偷懒,后面的脚本全是错的。
先把自动化的骨架搭好,而不是上来就盲写脚本, 这是第一层。
第二层:精准调教 AI,让脚本 “能用且好用”
很多人用AI做自动化最大的问题就是随口提问。
比如:"帮我写一个登录的自动化脚本。"
AI生成的代码大概率是这样的:
- 硬编码的账号密码
- 用绝对xpath定位(
/html/body/div[1]/div[2]/input) - 没有显式等待,全是time.sleep()
- 没有异常处理,报错就崩
- 没有日志记录,出了问题不知道哪步错了
这种代码复制粘贴能跑,但不能复用,但跑一次崩一次,维护成本极高。
高手的做法是给AI标准化提示词,比如指定编程语言、测试框架、项目环境、元素定位方式、封装规范、日志输出、异常捕获、失败重跑机制,让 AI 按规范生成。
其次,还要要求 AI 按照公司的代码规范生成基础封装类、公共方法,对接配置文件管理系统,甚至要考虑脚本的复用性 —— 比如把登录、支付等通用流程封装成公共函数,方便后续调用。
提示词示例(供参考):
角色:你是一位资深自动化测试工程师,熟悉playwright+pytest+PO模式。
技术规范:
- 编程语言:Python 3.13+
- 测试框架:pytest
- 定位策略:优先使用data-testid,其次id/name,禁用绝对xpath
- 等待机制:统一使用playwright智能等待机制,禁止time.sleep()
- 异常处理:每个操作必须有try-except,失败自动截图并记录日志
- 数据驱动:测试数据从YAML文件读取,禁止硬编码
- 日志规范:使用logging模块,INFO级别记录步骤,ERROR级别记录异常
- 报告:生成Allure报告,包含步骤截图和日志附件任务:基于以下页面元素和业务流程,生成PO模式的自动化脚本。
输入:[粘贴元素定位信息和业务流程]
即便 AI 按规范生成了脚本,我们也绝不会直接无脑使用。
人工审核是必经环节,比如
- 剔除冗余代码,修正不稳定的元素定位方式、优化等待逻辑
- 补全严谨的断言逻辑(比如不仅校验页面跳转,还要校验接口返回码、数据库数据更新)
- 处理环境隔离问题(比如区分测试 / 预发 / 生产环境的配置)
这个过程里,AI 是 “脚本初稿撰写者”,而人工是 “打磨者”,只有经过人工审核加固的脚本,才能真正纳入测试体系。
第三层:让 AI 融入维护迭代,搭建可持续的自动化闭环
自动化测试最难的从来不是初次编写,而是后续的维护和迭代。页面改版、接口字段变更、线上出现新缺陷,都会让自动化脚本失效,而 AI 的价值,恰恰能在这个环节发挥到最大。
AI 非常适合用在这些高频维护场景里:
-
脚本报错时,把日志丢给 AI,让它快速分析是元素定位失效、环境配置错误,还是业务逻辑变更导致的问题,并给出具体的修复方案,比测试工程师自己逐行排查效率高得多
-
页面改版或接口文档更新后,把新旧文档对比交给 AI,让它批量识别差异点,批量修改脚本中的字段和定位信息,节省大量重复劳动
-
甚至可以让 AI 帮忙优化脚本执行效率,精简代码逻辑,生成可视化的测试报告,解读报告中的失败用例,整理自动化回归周报,梳理线上缺陷对应的自动化补充场景
但这一切的前提,是建立明确的标准:AI 生成的内容只做初稿,人工审核优化后,要纳入公司的代码规范体系,接入 CI/CD 流水线。
最终形成一套AI 赋能自动化的标准流程
AI生成初稿(AI 梳理场景、AI 生成脚本) → 人工审核优化→ 纳入工作规范 → 接入CI/CD流水线 → 定时触发回归 → AI 辅助日常维护 → 沉淀为模板、体系

这个闭环里,AI 负责提效,而人工把控质量和方向,既发挥了 AI 的效率优势,又避免了纯 AI 生成内容的风险。
面试官真正想听什么?
讲到这里,大家应该清楚了:
面试官问这道题,根本不想听你只会让AI抄代码。
普通自动化测试把AI当免费码字工具,高级自动化测试把AI当成全流程提效的得力助手——场景拆解、代码生成、问题排查、长期维护,四个环节都能借力。
核心差异在于:
- 懂不懂调教AI(给精准指令,而不是随口提问)
- 懂不懂审核AI产出(不是复制粘贴,而是逐行校验)
- 懂不懂风险把控(知道AI代码的边界在哪,哪里必须人工介入)
- 懂不懂体系搭建(从单脚本到CI/CD流水线,从个人工具到团队协作)
现在行业早已不是"会手写脚本就能立足"的时代了。懂得借助AI搭建自动化测试流程、把控质量、降低维护成本,才是面试官真正看重的核心能力。
写在最后
如果你也在做 AI 自动化测试,踩过类似的坑,或者面对面试官的提问时,只能说出 “用 AI 生成脚本” 这种浅层答案,不妨系统梳理一下自己的落地逻辑。
我所组建的「AI 进化社」里,会包含完整的 AI 测试必考题库和项目实战技能,覆盖软件测试开发全流程的 AI 赋能方法,从场景拆解、指令调教,到脚本优化、维护闭环,都有具体的实战案例和方法论,能帮你建立起完整的 AI 自动化测试思维体系,不管是面试应对,还是工作落地,都能形成自己的核心竞争力。与其在 “复制粘贴” 中浪费时间,不如系统学习真正的落地方法,让 AI 成为你的职场加分项。
感兴趣的同学可以了解一下,「AI进化社」目前开放报名,具体信息可以私信我或者看评论区置顶。
最后想问问大家:你平时工作中有没有用AI做过自动化测试?有没有踩过"AI脚本漏洞多、不能复用、跑一次就崩"的坑?欢迎在评论区交流探讨。
