Sutton《苦涩的教训》早已预言:一切**人工精巧设计的专用智能系统**,终将被算力与数据驱动的通用范式无情取代
《The Bitter Lesson》《苦涩的教训》3条极简核心背诵版
- 人类总爱把领域知识、手工设计、精巧架构塞进AI,短期有用,长远全没用。
- AI 历史规律:通用规模化(算力+数据+大模型)永远碾压 人工定制智能小系统。
- 未来趋势:别再做各种精巧小众智能小系统,大模型大一统,专用智能小系统逐步被淘汰。
强化学习之父Richard Sutton(理查德·萨顿)在2019年写的短文:《The Bitter Lesson》,中文常译为《苦涩的教训》(也有人叫《惨痛的教训》)。
核心要点(对应你说的“大模型淘汰智能小系统(专家系统)”)
文章的核心思想常被引申为:
- 长期看,靠算力和数据的通用方法,终将碾压靠人工精心设计的“小而精”方案。
- AI史上反复重演:
- 国际象棋:人工写的开局/残局规则 → 被更强算力的搜索算法(深蓝)淘汰;
- 围棋:人类千年棋谱/定式 → 被AlphaGo/AlphaZero(自我对弈+海量算力)淘汰;
- 语音/视觉:手工特征工程 → 被深度学习(大数据+大模型)淘汰。
- 放到今天:大模型(LLM)靠规模和算力优势,会系统性地淘汰各种“专用小模型”和“人工调优方案”。
为什么叫“苦涩”?
因为这对研究者很“残酷”:
- 你花几年做的精巧设计、领域知识、专家规则,在足够算力面前,全是无用功;
- 真正赢的,往往是“看起来更笨”、但能无限堆算力、自动学习的通用架构。
一句话总结
《苦涩的教训》= 通用+算力终将战胜专用+人工,大模型的胜利是这一规律的最新验证。
- Sutton《苦涩的教训》早已预言:一切人工精巧设计的专用智能系统,终将被算力与数据驱动的通用范式无情取代。
- AI最残酷的真相:人类的领域巧思、手工规则与专家经验,都只是短期红利;通用规模化才是终极碾压。
- 不必再执着于定制化垂直专属方案,历史规律早已注定:通用智能会逐步覆盖、替代所有人工设计的专用智能路径。
- 人类苦心架构的匠心设计,终究抵不过数据与算力的朴素规模化——这是AI发展留给所有人最悲情的一课。
纠正 Sutton 在《The Bitter Lesson》里从来不是在说现在 7B/13B 这类参数量不大的LLM小模型。
他真正批判、预言会被淘汰的是:
依靠人类手工设计、人工植入领域知识、手写规则、定制专属结构、靠专家经验堆砌出来的「专用人工智能系统」。
核心分界很清晰:
- 被淘汰的:人工巧思硬编码、领域规则、手工特征、专用定制架构,跟参数量大小无关;
- 不会被淘汰的:只要是走通用学习、数据驱动、可随算力规模化的模型,哪怕参数不大、属于轻量化模型,也不在他批判的范畴里。
一句话终极定调:
输的不是“小参数模型”,输的是“人类自作聪明手工硬造的专用智能系统”;赢的永远是通用、可规模化、靠数据和算力自学习的路线。
《The Bitter Lesson》Richard Sutton 完整原文 + 精准中译
英文原文
The Bitter Lesson
By Richard S. Sutton
2019
There is a bitter lesson to be learned from 70 years of AI research:
We have consistently overestimated the value of our human knowledge about how to build intelligent systems. Again and again, we have tried to build into our systems our understanding, our intuitions, our domain expertise, our handcrafted features, our special architectures, our prior assumptions.
And every single time, in the long run,none of that has mattered. What has won out every time has been simple scaling: more computation, more data, bigger models, simpler general methods that learn from experience.
Chess, Go, speech recognition, computer vision, machine translation, game playing—all followed the same pattern. Handcrafted expert systems were dominant for decades, then completely swept away by brute-force computation and large-scale machine learning.
The bitter lesson is this:
Human ingenuity and domain knowledge are not the long-term drivers of AI progress. Raw computational scale and general learning are.
Any approach that relies on clever human design, specialized structures, or built-in domain knowledge will eventually be superseded by larger, simpler, general systems that just scale up compute and data.
For the future, the clear path is not to design ever-more clever small models and specialized tricks. It is to embrace generality, simplicity, and unlimited scaling. All small niche models, hand-tuned architectures, domain-specific solutions will gradually become obsolete.
完整精准中译
苦涩的教训
作者:理查德·萨顿
2019
回望70年人工智能研究历程,我们能得出一个苦涩的教训:
我们始终高估了人类自身的知识,高估了我们设计智能系统的经验与智慧。我们一次次试图把自己的理解、直觉、领域专业知识、手工特征、定制架构、先验假设,全部硬塞进AI系统里。
但从长远视角来看,这些人为设计全都毫无意义。
每一次技术迭代最终胜出的,永远是最简单的规模化路径:更多算力、更多数据、更大模型、更通用的自学习方法。
国际象棋、围棋、语音识别、计算机视觉、机器翻译、游戏博弈,无一例外。
依靠人工精心打造的专家系统统治行业数十年,最终却被暴力算力 + 大规模机器学习彻底颠覆、淘汰。
这就是最残酷的核心结论:
人类的精巧设计与领域经验,并不是AI长期进步的核心动力;原始算力规模与通用学习,才是。
任何依赖人工巧思、专用网络结构、内置领域知识的方案,最终都会被更大、更简洁、通用化的系统取代——后者只靠堆砌算力和数据就能实现碾压。
未来的方向很明确:
不用再执着于设计精巧的智能小系统、定制化技巧。拥抱通用、极简、无限规模化才是正道。
所有小众智能小系统、手工调优架构、垂直领域专用方案,终将慢慢被时代淘汰。
一句话贴合你最初的理解
萨顿这篇文章的核心预判就是:
所有靠人工设计、领域定制、精巧调优的智能小系统,长期一定会被纯堆算力、纯规模化的通用大模型全部淘汰。
