当前位置: 首页 > news >正文

到底要不要 Vibe Coding ?

那么,它取决于什么?

当我用 AI 写代码时,我会不断做一些微小的风险评估:是否信任 AI,信任到什么程度,以及我需要投入多少精力去验证结果。随着我使用 AI 的经验越来越多,这些评估也会变得更精准、更直觉。

风险评估通常由三个因素构成:

概率

影响

可检测性

围绕这三个维度进行思考,可以帮助我决定是否把任务交给 AI、是否需要审查生成的代码、以及审查到什么样的细粒度。这也能帮助我在想要利用 AI 的速度时,思考可以采取哪些缓解措施来降低它做错事情的风险。

1. 概率:AI 把事情做错的可能性有多大?

下面这些因素有助于判断“概率”这个维度。

了解你的工具

AI 编码助手的效果取决于所用模型、工具内部的提示编排,以及助手与代码库和开发环境的集成程度。作为开发者,我们无法掌握所有底层细节,尤其是在使用闭源工具时。因此,对工具质量的评估既来自于它宣称的功能,也来自于我们以往对它的真实使用体验。

这个用例是否“适合 AI”?

你的技术栈是否在训练数据中占比较高?你希望 AI 生成的解决方案有多复杂?AI 需要解决的问题规模有多大?

你也可以更普遍地考虑,你当前处理的是一个对“正确性”要求很高的用例,还是不是。比如,是在按设计精确还原一个界面,还是在草拟一个粗略的原型界面。

注意可用的上下文

概率不仅与模型和工具相关,也与可用的“上下文”相关。上下文包括你提供的提示,以及代理通过各种工具调用所能访问到的所有信息。

* AI 助手对你的代码库的访问是否足够,从而能做出好的决策?它是否看到了文件、结构、领域逻辑?如果没有,它生成无用内容的概率就会上升。

* 你的工具的代码搜索策略有多有效?有些工具会索引整个代码库,有些会对文件进行类似即席的 grep 搜索,有些会借助 AST(抽象语法树)构建图。了解你的工具采用什么策略会有帮助,尽管最终只有使用体验才能告诉你该策略到底效果如何。

* 你的代码库是否“对 AI 友好”,也就是是否以一种便于 AI 处理的方式进行结构化?它是否模块化,边界与接口是否清晰?还是一个很快就把上下文窗口塞满的“泥球”?

* 现有代码库是否在“树立好示范”?还是充斥着各种 hack 和反模式?如果是后者,那么如果你不明确告知什么是好的示范,AI 生成更多同类问题的概率会升高。

2. 影响:如果 AI 做错了而你没有注意到,后果是什么?

这个考虑主要围绕“用例”本身。你是在做 spike 还是生产代码?你是否对正在开发的服务承担值班责任?它是否对业务至关重要,还是只是内部工具?

一些有用的自检问题:

* 如果今晚你要值班,你会把这段代码上线吗?

* 这段代码的影响半径是否很大,比如被很多其他组件或消费者使用?

3. 可检测性:当 AI 做错时,你能否察觉?

这关乎“反馈回路”。你的测试是否健全?你是否在使用强类型语言?你的技术栈是否让失败更显而易见?你是否信任工具的变更跟踪与 diff?

它也与您对代码库的熟悉程度有关。如果你对技术栈和用例足够熟悉,你更可能在第一时间发现可疑之处。

这个维度很大程度上依赖传统的工程技能:测试覆盖率、系统知识、代码评审实践。而它也会影响到即便由 AI 来做改动时你能有多大的信心。

传统技能与新技能的结合

你可能已经注意到,许多这些评估问题需要“传统”的工程技能,另一些则需要新的与 AI 相关的技能与经验。

三大维度的总结.png

把三个维度结合起来:审查力度的滑动刻度

当你把这三个维度结合起来时,它们可以指导你的监督力度。让我们用两个极端的例子来说明这点:

* **概率低 + 影响低 + 可检测性高**: Vibe Coding 没问题!只要事情能正常工作并达成目标,我就完全不审查代码。

* **概率高 + 影响高 + 可检测性低**: 建议进行高强度审查。假设 AI 可能是错的,并为此做好兜底。

当然,大多数情况都介于两者之间。

三维度的两个极端情况.png

示例:遗留系统的逆向工程

我们最近为某客户做遗留系统迁移,第一步是借助 AI 生成现有功能的详细说明。

* 错误描述的概率为“中等”:

* 工具:我们不得不使用的模型经常无法很好地遵循指令

* 可用上下文:我们无法访问全部代码,后端代码不可用。

* 缓解措施:我们多次运行提示以抽查结果差异,并通过分析反编译后的后端二进制来提升信心。

* 错误描述的影响为“中等”:

* 业务用例:一方面,该系统被组织的数千名外部业务伙伴使用,所以重建错误会带来声誉和营收风险。

* 复杂度:另一方面,应用的复杂度相对较低,因此我们预计修复错误会相当容易。

* 计划中的缓解措施:新应用的分阶段发布。

* 错误描述的可检测性为“中等”:

* 安全网:没有现有的测试套件可以进行交叉验证

* 专家可用性:我们计划引入领域专家进行审查,并创建功能对等的比对测试。

如果没有这样的结构化评估,很容易出现审查不足或过度审查。通过校准我们的方法并规划缓解措施,我们避免了这些问题。

结语

这种微观的风险评估会逐渐成为你的第二天性。你用 AI 越多,就越能对这些问题形成直觉。你会逐渐感知哪些改动可以信任,哪些需要更仔细的检查。

目标不是用清单拖慢自己,而是形成一些直觉性的习惯,帮助你在利用 AI 的能力与降低其副作用风险之间找到平衡。

http://www.jsqmd.com/news/106577/

相关文章:

  • 网站攻击技术,一篇打包带走!
  • Paperzz AI:毕业论文写作的 “隐形助攻”,让学术输出告别 “抓瞎”
  • 电信网络专线如何选择,才能满足企业需求?
  • 【2025最新】ChatGPT Plus / GPT-5 Pro 订阅保姆级教程:一键搞定国外支付,解锁地表最强 AI(内附防封策略)
  • C++学习之旅【C++内存管理、模板初阶以及STL简介】
  • 新型僵尸网络正对路由器、摄像头等设备发起大规模DDoS攻击
  • Windows系统文件wsock32.dll缺失损坏问题 下载修复
  • GESP认证C++编程真题解析 | B3851 [GESP202306 四级] 图像压缩
  • 两个路由器如何配置静态路由?
  • 【VSCode+Q#开发必读】:3大典型量子作业异常及其根治方案
  • 韩家炜教授新作:下一代Agentic AI应如何“适配”?
  • Windows找不到XAudio2_6.dll文件 如何下载修复?
  • 误删量子任务记录怎么办,3分钟极速恢复方案曝光
  • 一位网友逆向破解了 ChatGPT 记忆系统,给我干破防了
  • 12 Ways to Find User Account Info and Login Details in Linux
  • 国际网络互联如何选择?企业跨境通讯的痛点
  • Windows找不到xenroll.dll文件 如何下载修复?
  • 全球仅1%开发者掌握的技能:在VSCode中无缝集成并运行混合量子-经典机器学习模型
  • Windows系统文件wtsapi32.dll缺失找不到 下载修复
  • Windows系统文件xinput1_3.dll找不到问题 下载修复
  • 当AI写作成为学术常态,我的论文却因“AIGC率”被拒?——一位留学生的“降重自救”实录与PaperXie的“人机协作”新解法
  • 政府网站与政务新媒体检查指标抽查通报如何面对
  • 【笔记】矩阵的谱半径
  • 软件缺失X3DAudio1_0.dll文件无法运行情况 下载修复
  • 不止于兼容:金仓数据库如何以部署、安全、性能三重革新重塑企业级数据库体验
  • ABAP直连外部HANA数据库实操指南(DBCO配置+ECC/S/4实现方案)
  • 从 paperxie 到细分场景:7 款差异化 AI 开题报告工具如何破解不同专业的开题卡壳难题?
  • 没公网 IP 也能远程控制!Linux 用 rdesktop+cpolar 轻松搞定
  • 【Azure CLI量子作业日志分析秘籍】:5步精准定位量子计算异常根源
  • 11.4