人活在结构里,而非真理中-从 Agent 工程的演进,谈一个对普通人也极其重要的道理
点击上方蓝字关注我们
01
缘起:为什么我会想到这个问题?
最近看到大牛李继刚老师发了一段文字,于我心有戚戚焉:
我目前在用的杠铃阅读策略:
一头读经典书籍,每天读,每月和大家一起读书会共读一本,讨论碰撞。一头读前沿论文,每天读三到五篇(AI辅助),不求论文多么厉害,只要能从中获得一个小的认知启发或「结构」发现,年下来,攒1000个小点,形成复利。
新闻,默认全不看。真正重要的新闻,在今天这个时代,会通过各种渠道「撞」进我的系统,不用担心错过什么。
李继刚
今天用继刚老师的ljg-card skill(可以到github上找到lijigang这个repo),对某篇讨论 AI Agent 合作机制的论文),进行剖析,得到以下的图:
这篇论文叫CoopEval: Benchmarking Cooperation-Sustaining Mechanisms and LLM Agents in Social Dilemmas,其地址如下:
https://arxiv.org/abs/2604.15267v1
这篇论文的核心观点很有意思:
单靠模型自身的“聪明”和“推理能力”,并不能自然导向合作;相反,在很多一次性博弈里,越强的模型,越容易选择对自己局部最有利的策略,也就是不合作。
但如果给它加入契约、调解、监督、可追责机制,合作反而能够稳定出现。
这件事最打动我的,不是“AI 竟然也会自私”,而是它再次提醒了一个在人类生活里早就反复出现、却总被忽视的事实:
一个主体能否长期做出好的行为,
往往不取决于它懂不懂道理,而取决于它所处的结构如何
按照继刚老师的说法,读论文重在了解其逻辑和对我们日常工作学习的泛化应用。这让我想到,我们平时谈成长、学习、自律,特别喜欢从“认知”出发:
你要想明白、要提高觉悟、要增强意志力、要真正理解这件事的重要性。
这些当然没错。
但问题在于,现实里太多事情,并不是“你不懂”,而是“你做不到”;不是“你不知道”,而是“你所在的环境,会稳定地把你推向另一边”。
突然想到
于是我突然意识到,Agent 工程的发展路径——从提示词工程,到上下文工程,再到今天越来越重要的 harness 工程——其实和人类的成长逻辑,有一种非常深的同构。
它们都在说明同一个朴素但尖锐的道理:
少寄希望于主体临场变聪明,多着力于系统先把正确行为变容易。
于是就想写写我们可以从这篇论文里获得什么,里面的哪些精髓可以泛化到我们的日常工作和生活、学习?泛化所得的体会又和最近特别火热的Harness工程又有什么关联?可以先看看我用AI对这篇文章的观点所画的结构图。
02
破题:我们为什么总高估“讲道理”的作用?
我们从小就生活在一种“认知决定行为”的叙事里。
仿佛只要一个人真正明白了什么是重要的,他就会行动;
只要真正意识到拖延的代价,他就会停止拖延;
只要真正知道早睡、锻炼、阅读、专注的价值,他就会逐渐成为一个更好的人。但现实经验一再告诉我们,不是这样的。
我们知道短视频消耗注意力,还是会刷。
知道熬夜伤身,还是会拖到两点。
知道学习该长期积累,还是忍不住临时抱佛脚。
知道情绪化争论没有意义,还是会在那一刻上头。
知道应该深度工作,还是不断切出去看消息、看通知、看一些并不重要的信息。
问题出在哪?
问题不在于“人太差劲”,而在于我们对行为形成机制的理解太简单了。
我们太容易把行为归因于道德、意志、觉悟,却低估了环境、激励、路径依赖、反馈机制这些结构性因素的力量。
人并不是一个只要听懂道理就会自动执行的理性机器。
人更像一个持续受到局部奖励、即时诱惑、摩擦成本、情境线索影响的有限系统。
换句话说,人不是活在抽象真理里,而是活在具体结构里。
03
从 Agent 工程说起:技术世界其实已经先想明白了
如果把最近几年 Agent 的演进简化来看,大概经历了三个阶段:
1. 提示词工程:先“劝它”
最早大家寄希望于 prompt。
你告诉模型:
请一步一步思考。
请先分析再回答。
不要编造事实。
遇到不确定的信息请说明。
请像一个严谨的专家一样工作。
这个阶段,本质上是在通过语言来规训行为。
它当然有用,但它有一个天然局限:
你是在劝一个系统变好,而不是让一个系统更难变坏。
也就是说,它依然高度依赖主体临场发挥。
这就像人类世界里那种熟悉的鼓励:
你要自律。
你要坚持。
你要专注。
你要为长期目标负责。
这些话都对,但往往也都很脆弱。
因为它们没有改变结构,只是提高了对主体的期待。
2. 上下文工程:再“喂它”
后来大家发现,只靠 prompt 不够,模型的表现高度依赖它看到了什么。
于是开始重视 context engineering:
给它更完整的背景知识,
给它任务历史,
给它用户偏好,
给它案例示范,
给它记忆、状态、约束条件。
这个阶段,比 prompt 更进一步。
因为它不再只是说“你应该怎么做”,而是开始改变“你是在什么世界里做判断”。
这就像一个学生,不只是被老师口头提醒“好好学”,而是:
有明确的学习材料
有过去的错题记录
有阶段性目标
有可参考的高质量范例
有人帮他补全缺失的背景
这已经不是单纯靠意志,而是在优化决策前提。
3. Harness 工程:最后“管它”
再往后,真正做 Agent 的人越来越意识到:
要让系统稳定工作,关键已经不只是 prompt 和 context,而是 harness。
什么是 harness?
是工具边界。
是调用权限。
是状态机。
是审批流。
是检查器。
是回滚机制。
是重试逻辑。
是日志与可观测性。
是结果验证。
是失败后的兜底策略。
是“做错了会被发现,做对了才会被继续放行”的整体制度环境。
到了这一步,问题已经不再是“如何说服它正确”,而是“如何让正确成为默认路径,让错误变得更难、更贵、更容易暴露”。
这就是工程的成熟。
也正是在这里,技术世界和人的生活经验,第一次深深重合了。
04
抽象:从“内容规训”到“结构塑形”
如果把前面这一切抽象一下,其实可以得到一个非常普遍的演化逻辑:
当我们面对一个不稳定的主体时,最初总想通过内容去教育它;但当我们真的想让结果稳定,就不得不转向结构去塑造它。
这条逻辑,在很多领域都成立。
对孩子,最初是讲道理,后来发现还得有规则。
对团队,最初是强调价值观,后来发现还得有流程。
对市场,最初相信理性竞争,后来发现还得有制度设计。
对自己,最初是喊口号,后来发现还得靠环境改造。所以,如果一定要把这件事压缩成一句话,我会这么说:
“讲道理”解决的是方向问题;“做结构”解决的是落地问题。
而大多数失败,恰恰不是死于方向错误,而是死于结构缺位。
05
思考:这对普通人的学习和生活,到底意味着什么?
这件事最有价值的地方,在于它并不只属于 AI 工程师。
它对每个普通人都很有启发。
1. 自律,不如设计默认选项
很多人把人生问题理解成“我不够自律”。
但更准确地说,很多问题其实是:
你的默认环境,正在稳定地支持坏习惯,而不是好习惯。
比如:
你想读书,但手机永远在手边;
你想早睡,但娱乐内容在睡前最容易获取;
你想专注,但消息提醒永远在打断你;
你想健身,但运动这件事在路径上比“躺着”麻烦太多。
所以真正有效的做法,不是天天责备自己,而是重做默认设置:
把最容易打开的入口留给该做的事
把最容易分心的入口设门槛
把想坚持的行为放进固定时间块
把模糊目标改成可执行动作
把“靠想起来才做”改成“到点就做”
本质上,这就是给自己做 harness。
2. 越聪明的人,越需要结构
这听起来反直觉,但其实很真实。
聪明人不一定更稳定,很多时候反而更会为自己的失控寻找理由。
因为他有更强的解释能力,也就有更强的合理化能力。
“今天效率不高,说明不适合做这件事。”
“我不是拖延,我是在等待更好的状态。”
“规则是给普通人用的,我得保持灵活。”
“这个方法太机械,不适合我这种需要创造性的人。”
听起来都很高级。
但结果往往就是:系统性松动,局部性放纵,长期性失控。
所以对聪明人来说,结构不是侮辱,而是保护。
不是因为你不够强,而是因为你越强,越容易高估自己对局部诱惑的控制能力。
3. 关系的稳定,也依赖结构
很多人谈合作、友情、伴侣关系、团队管理,总喜欢强调真诚、善意、默契、价值观一致。这些当然重要。
但如果没有结构支撑,善意也会被消耗,默契也会被误解,关系也会被摩擦拖垮。
真正能长久的关系,通常都有某种结构基础:
预期是清晰的
边界是明确的
责任是可分的
反馈是及时的
违约是有成本的
合作是有正反馈的
这并不是“把关系变冷”,恰恰相反,这是在给关系一个可持续的骨架。
没有骨架的善意,很容易塌。
4. 成长的本质,不只是提升认知,而是重建激励系统
我们总以为成长就是“懂得更多”。
但很多时候,成长其实是“让自己所处的激励结构变得更健康”。
比如:
让即时快感不再那么容易获得
让长期收益变得更可见
让错误更早暴露,而不是拖到最后崩盘
让进步可以被记录,而不是只靠主观感觉
让承诺对他人可见,从而获得外部约束
这才是真正可积累的成长。
因为它不是一次性的觉悟,而是持续性的塑形。
06
泛化:这不只是个人方法论,而是一种理解世界的框架
如果再往外推一步,这个道理的意义会更大。
它不仅能帮助我们管理自己,也能帮助我们理解组织、产品、制度,甚至社会现象。
为什么很多好政策落不了地?
因为方向是对的,但执行结构不支持。
为什么很多公司价值观写得很好,却内部协作混乱?
因为口号是口号,流程是流程,真正驱动行为的是后者。
为什么很多平台嘴上倡导高质量内容,最后却被情绪、猎奇、对立劫持?
因为它真正奖励的,是停留时长、互动强度和可传播性,而不是质量本身。
为什么很多人明明想过得更好,却总是在同一种模式里反复?
因为他不是没有道理,而是没有从结构上离开那套旧循环。
所以这套视角的真正价值,在于它会逼你问一个更尖锐的问题:
到底是什么,在真实地塑造行为?
不是大家嘴上认同什么,
不是海报上写了什么,
不是群里喊了什么,而是——
什么被默认鼓励?
什么被默认放大?
什么成本最低?
什么反馈最快?
什么错误最难被发现?
什么行为一旦开始,就最容易形成路径依赖?
看清这些,才算真正看清一个系统。
07
回到起点:为什么这可能是一个更成熟的世界观?
我越来越觉得,一个人真正成熟的标志,不是更会批评自己,也不是更会要求别人,而是逐渐从“道德想象”转向“结构理解”。
年轻的时候,我们喜欢相信意志。
相信热情,
相信觉悟,
相信一旦想明白,生活就会改变。
后来才知道,热情会退,意志会累,觉悟会波动。
真正能让你走得远的,往往不是那一刻有多燃,而是你是否慢慢为自己搭建出了一套可以长期运转的结构。
所以,Agent 工程从 prompt 走向 context,再走向 harness,并不只是技术路线的升级。
它某种意义上,也是对“人如何行动”这件事的一次重新教育。
它提醒我们:
不要总想着把主体教育得更完美;
先去设计一个即便主体并不完美,也能持续产出较好结果的系统。
这不是悲观。
这恰恰是成熟。
08
结语:自律很珍贵,但结构更可靠
如果要用一句最短的话来概括全文,我会写:
自律很珍贵,但结构更可靠。
讲道理当然重要,因为它决定你往哪里走;
但如果你真的想走到那里,最后一定绕不开结构设计。
对自己如此,
对关系如此,
对组织如此,
对 AI Agent 也是如此。
所以,比起反复问“为什么我总做不到”,不如换个问法:
是不是我把太多希望,寄托在临场发挥上了?
是不是我该少一点自责,多一点系统设计?
是不是我真正需要改的,不只是想法,而是环境、流程、默认选项、反馈机制?
当你开始这样想问题时,你就已经从“靠激情活着”,走向“靠结构活着”了。
而这,可能才是一种更稳、更自由、也更接近现实的成长方式。
