什么是Harness Engineering?
在过去一年里,越来越多团队尝试用大模型完成复杂任务。但一个现实是:AI 往往能做好单个步骤,却难以完成完整流程。
Anthropic 在2026年3月24日发布的一篇博客****实践中给出的结论很直接:问题不在模型能力,而在任务组织方式。
这也是 Harness Engineering真正重要的原因。
**01什么是 Harness Engineering?
Harness Engineering,简单说就是给 AI 搭一套"工作系统"——不只告诉它做什么,还规定怎么做、按什么步骤、做完如何检查、下一步去哪里。
简单任务里,一个精准的 Prompt 往往足够;但一旦涉及设计、开发、评审与多轮迭代,Prompt 就容易失控——执行中断、结果不稳定、难以复用。
这就需要在 Prompt 之上建立更完整的方法论。
以"让 AI 写一份技术方案"为例:Prompt 决定你怎么问,Context 决定它看哪些资料,Harness 决定任务怎么触发、结果怎么验证、出错怎么处理。
三者关系如下图:
- Prompt Engineering(提示词工程):怎么说一句话——撰写清晰有效的指令。
- Context Engineering(上下文工程):如何组织信息——为模型提供背景、检索数据(RAG)与历史对话。
- Harness Engineering(框架工程):整个系统如何运转——覆盖评估、监控、安全护栏与部署架构。
Harness 真正的转变是:你不再只是与 AI 对话,而是在设计一套让 AI 持续稳定工作的系统。AI 工程的核心能力,正在从"会写 Prompt"转向"会设计系统"。
02 为什么 AI 做不好长任务?本质不在模型
如果只是让 AI 回答一个问题,一个好的 Prompt 往往已经足够。但一旦任务变成「多阶段、长周期」——比如从需求设计、到开发实现、再到测试优化,Prompt 就会迅速失效。
问题的本质在于:AI 并不擅长在长时间任务中保持稳定表现,而且会常见地出现三类问题。
1.长任务一定失控:上下文不是“记忆”,只是缓存
很多人默认认为,对话历史 = AI记忆,但实际上:上下文只是一个有限缓存,而不是稳定记忆系统。一旦任务变长,就会出现:
- 早期决策被覆盖(设计前后不一致)
- 任务目标逐渐模糊(做着做着偏了)
- 临近上下文上限时“提前收尾”(典型 AI 行为)
这也是为什么你会看到:同一个 AI,前 30 分钟很聪明,后 2 小时像“换了一个人”。
Anthropic 的解决方案不是优化 Prompt,而是直接承认这一点,并做了一个工程化处理:不让 AI 依赖上下文,而是用“结构化产物(artifact)传递状态”
本质上就是:把“记忆”从模型里拿出来,放到系统里。
2.自我评估几乎无效:AI不会否定自己
第二个更隐蔽的问题是:自评机制是失真的。无论是写代码、做设计还是写内容,只要让 AI 自己评价自己,它都会:
倾向给高分
忽略明显问题
用合理化解释掩盖错误
这不是偶发,而是模型机制决定的(生成式模型默认“连贯优先”而不是“批判优先”)。
Anthropic 的做法很关键:彻底拆掉“自评”,引入独立 Evaluator。即:生成(Generator)负责“做”;评估(Evaluator)负责“挑错”
重点不只是“多一个 Agent”,而是:Evaluator 被单独训练成“更苛刻的角色”,这点非常反直觉,但效果显著:让 Generator 变严格很难,但让 Evaluator 变严格是可控的
一旦有了“外部批评”,AI 才真正进入迭代状态。
3.最大误区:把复杂任务当成“大一点的 Prompt”
- 大多数 AI 产品的一个根本问题是:用“单轮思维”去做“多轮系统”。例如:
- 写一篇文章 → 直接让 AI 一次生成
- 做一个功能 → 一次性描述所有需求
- 设计一个产品 → 一段 Prompt 全搞定
这在简单任务上有效,但在复杂任务上会导致:结构混乱、逻辑断裂、无法迭代优化
Anthropic 的实践本质上是在做一件事:把任务“流程化”,而不是“Prompt化”
如果一定要用一句话总结 Harness:Harness 不是让 AI 更聪明,而是让 AI 按正确方式工作。
它解决的不是能力问题,而是:
- 任务拆解(Planner)
- 执行路径(Generator)
- 质量控制(Evaluator)
- 状态管理(Artifacts)
03 Harness vs 单次生成:Anthropic 的对比实验
为了验证 Harness 在真实场景中的效果。
Anthropic 团队做了一个非常直接的对比实验:用同一条 Prompt,让同一个 AI 模型分别以两种方式完成同一个任务——生成一个复古风格的 2D 游戏编辑器(包含关卡编辑、精灵编辑、实体行为以及可试玩模式)。
一组采用单次生成(单 Agent),另一组则走完整的 Harness 流程。
最终结果非常直观:虽然 Harness 方案的成本高出约 20 倍,但在结果呈现的那一刻,这个差距是否值得几乎不需要解释。
单跑版本看起来“像是完成了”,界面、入口一应俱全,但实际体验中问题接连出现:布局大量浪费空间、操作流程僵硬且缺乏引导。
更关键的是游戏本身是无法运行的——元素虽然渲染在屏幕上,但没有任何输入响应,本质上只是一个“能看不能用”的空壳。
Harness 版本则完全不同:在规划阶段就将一句简单需求拆解为 16 项功能、覆盖 10 个迭代周期的完整需求文档,同时内置了视觉设计规范与每一轮的验收标准。
最终产出不仅在界面上具备统一且完整的视觉风格,画布能够合理利用整个视口,编辑器功能真正可用,甚至还集成了 Claude,使用户可以通过对话直接生成游戏内容。
这种差异本质上不是“生成质量更高”,而是从“表面完成”跨越到了“真正可用”。
04 小结
回到最开始的问题:Harness Engineering 为什么重要?
这篇博客其实已经给出了一个非常明确的答案——AI 的问题,从来不只是“能力不够”,而是“没有被正确组织”。
当我们用单次生成去解决复杂任务时,得到的往往只是“看起来完成了”的结果;
而当我们引入 Harness,把任务拆解、执行、评估和状态管理系统化之后,AI 才真正具备了交付“可用结果”的能力。
这背后的变化,不只是效果提升,而是范式切换:
- 从一次性输出 → 持续迭代
- 从结果导向 → 过程可控
- 从“用 AI” → “让 AI 工作”
也正因如此,未来 AI 产品的差距,很可能不再主要体现在模型能力,而是体现在:你是否构建了一套完整的 Harness。
模型决定下限,但真正决定上限的,是你如何设计这套系统。
最后
对于正在迷茫择业、想转行提升,或是刚入门的程序员、编程小白来说,有一个问题几乎人人都在问:未来10年,什么领域的职业发展潜力最大?
答案只有一个:人工智能(尤其是大模型方向)
当下,人工智能行业正处于爆发式增长期,其中大模型相关岗位更是供不应求,薪资待遇直接拉满——字节跳动作为AI领域的头部玩家,给硕士毕业的优质AI人才(含大模型相关方向)开出的月基础工资高达5万—6万元;即便是非“人才计划”的普通应聘者,月基础工资也能稳定在4万元左右。
再看阿里、腾讯两大互联网大厂,非“人才计划”的AI相关岗位应聘者,月基础工资也约有3万元,远超其他行业同资历岗位的薪资水平,对于程序员、小白来说,无疑是绝佳的转型和提升赛道。
如果你还不知道从何开始,我自己整理一套全网最全最细的大模型零基础教程,我也是一路自学走过来的,很清楚小白前期学习的痛楚,你要是没有方向还没有好的资源,根本学不到东西!
下面是我整理的大模型学习资源,希望能帮到你。
👇👇扫码免费领取全部内容👇👇
最后
1、大模型学习路线
2、从0到进阶大模型学习视频教程
从入门到进阶这里都有,跟着老师学习事半功倍。
3、 入门必看大模型学习书籍&文档.pdf(书面上的技术书籍确实太多了,这些是我精选出来的,还有很多不在图里)
4、AI大模型最新行业报告
2026最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
5、面试试题/经验
【大厂 AI 岗位面经分享(107 道)】
【AI 大模型面试真题(102 道)】
【LLMs 面试真题(97 道)】
6、大模型项目实战&配套源码
适用人群
四阶段学习规划(共90天,可落地执行)
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
硬件选型
带你了解全球大模型
使用国产大模型服务
搭建 OpenAI 代理
热身:基于阿里云 PAI 部署 Stable Diffusion
在本地计算机运行大模型
大模型的私有化部署
基于 vLLM 部署大模型
案例:如何优雅地在阿里云私有部署开源大模型
部署一套开源 LLM 项目
内容安全
互联网信息服务算法备案
…
👇👇扫码免费领取全部内容👇👇
3、这些资料真的有用吗?
这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
