当前位置: 首页 > news >正文

为什么我越来越警惕“直接用大模型做决策” 一个偏系统工程视角的反思

写这篇文章,并不是为了否定大模型的能力。
恰恰相反,是因为我越来越确信:
AI 已经强到,如果我们还用“工具思维”去使用它,一定会出问题。

如果你只是用 AI:

  • 写代码
  • 改 Bug
  • 生成文档
  • 查资料

那很多风险暂时与你无关。

但如果你开始思考:

  • AI 能不能参与判断?
  • AI 能不能进风控、交易、医疗、调度?
  • AI 能不能成为长期协作系统的一部分?

那下面这些问题,其实已经绕不开了。


一、一个不太讨喜的判断

现在很多 AI 应用,其实是在“裸用大模型”

我先说结论:

现在相当一部分 AI 应用,本质上是在“裸用 LLM”。

这里的“裸用”,不是说不安全、不合规,而是说:

  • 把一个高自由度、强推理能力的系统
  • 直接放进需要稳定判断的场景
  • 却没有一层真正意义上的系统级约束

很多人会反驳:

Prompt 写好了
RAG 接上了
规则也加了

但站在系统工程角度,这些更多是:

功能增强,而不是决策治理。


二、为什么说大模型更像“发动机”,而不是“整套系统”

这是理解后面所有问题的关键。

从工程视角看,大模型的特性非常接近:

一台性能极强、但高度自由的发动机。

它的特点是:

  • 推理能力很强

  • 表达能力很强

  • 可以在不完整信息下给出“像样的答案”

  • 但它并不天然负责:

    • 行为稳定
    • 权限边界
    • 风险控制
    • 状态一致性

如果你把一台 1000 马力的发动机:

  • 没有变速箱
  • 没有底盘
  • 没有刹车系统

你不会说它“潜力无限”,
你只会说:这东西不能上路


三、风险并不来自“偶尔出错”,而来自“不可预期”

很多程序员的第一反应是:

AI 会不会偶尔答错?

但真正的系统风险,不在“错一次”,而在于:


1️⃣ 同样条件下,行为不稳定

  • 同样的问题
  • 同样的数据
  • 不同时间调用

结果可能明显不同。

在内容生成里,这是“多样性”;
在系统决策里,这是不确定性


2️⃣ 强解释能力,会掩盖系统缺陷

大模型有一个很强的特性:

几乎任何结果,它都能解释得通。

但在工程里我们都知道:

“跑得顺”不等于“跑得对”。

一个系统如果:

  • 每次都能给理由
  • 但行为不可复现

那它在工程上依然是不合格的。


3️⃣ 出问题后,无法复盘

这是底线问题。

如果系统出问题,你至少要知道:

  • 哪个条件触发了判断
  • 哪条路径被采信
  • 是否可以复现

如果这些都做不到:

这个系统就是不可维护的。


四、问题不在于 AI 不够强,而在于“没人接管它”

这里有一个非常反直觉的结论:

AI 的问题不是不够聪明,
而是聪明得超过了现有系统的承载能力。

没有系统级接管的高能力组件,在工程里一定会导致:

  • 行为漂移
  • 风险累积
  • 调试困难
  • 责任模糊

这不是 AI 的锅,而是:

系统工程缺位。


五、为什么我开始认真思考“AI 的操作系统”

如果你写过系统软件,或者做过复杂系统架构,你一定知道:

  • CPU 出现 ≠ 系统可用

  • 必须有 OS:

    • 管调度
    • 管权限
    • 管状态
    • 管异常

现在,大模型正在经历类似阶段。

只不过这一次,操作系统要管理的不是算力,而是:

判断权与决策路径。


六、什么是“决策模型”(不是 ML 模型)

这里说的“决策模型”,并不是指机器学习模型,而是一层系统逻辑:

  • 不负责预测
  • 不负责生成
  • 不负责创意

它只做一件事:

判断:在当前条件下,这个行为是否被允许。

工程上,它的目标非常朴素:

同样的输入 → 同样的判断结果。

也就是我们常说的:

同题同答。


七、为什么运行环境本身非常重要

很多讨论容易陷入“模型谁更强”。

但从系统角度,更重要的是:

模型运行在什么样的环境里。

如果运行环境:

  • 状态不稳定
  • 行为不可预期
  • 边界靠约定

那在其之上谈“可控决策”,基本都是空谈。


八、量化、医疗、科研,其实是同一个系统问题

你会发现:

  • AI 量化的问题是决策漂移
  • AI 医疗的问题是越权判断
  • AI 科研的问题是把检索当思考

它们本质上都在回答同一个问题:

谁,在什么条件下,有资格做判断?


九、关于“伴生模型”:必须极其克制

长期运行的系统需要:

  • 连续状态
  • 个体差异
  • 行为习惯

这催生了“伴生模型”的概念。

但系统工程上必须非常清楚:

伴生模型只能提供状态信息,
不能拥有裁决权。

否则:

  • 长期偏好会反向影响系统
  • 风险会随时间积累
  • 行为将不可预测

十、写在最后:这是一个系统工程问题

如果用一句话总结这篇文章:

AI 时代真正的风险,不是模型不够强,
而是我们还在用“工具思维”使用系统级智能。

真正重要的不是:

  • AI 能做什么

而是:

AI 在什么条件下,被允许做什么。


作者说明

本文整理自一次长时间的人机协作与系统架构讨论,
讨论核心集中于 AI 决策稳定性、系统工程边界与可托付性问题
相关探索基于 EDCA OS(Expression-Driven Cognitive Architecture) 的研究框架,
目前仍处于持续验证与演化阶段。。

http://www.jsqmd.com/news/129626/

相关文章:

  • 探索大数据领域 Eureka 的服务限流机制
  • 【Open-AutoGLM 高阶应用秘籍】:如何让AI自主完成复杂电脑任务?
  • 企业建站必看:什么是网站模板?为什么是最佳性价比方案?
  • 敦化市鼻炎调理哪家好?曹丹诊所为您提供专业中医解决方案 - 品牌日记
  • 88%企业选择长期合作黑蚁文创的6大理由
  • 2025年评价好的景区亮化工程/道路景观亮化工程品牌实力榜 - 品牌宣传支持者
  • 从DeepSeek看AI产业跃迁:大模型时代的技术变革与实战应用
  • 【AutoGLM插件应用秘籍】:掌握这7个技巧,轻松驾驭智谱清言AI生态
  • Vibe Coding了一个 X / Twitter 推文收藏网站
  • 职业发展规划:基于行业趋势的个性化成长路径建议
  • 【Open-AutoGLM 2.0核心原理揭秘】:深度解析下一代自动化大模型推理引擎
  • 【稀缺资源】Open-AutoGLM内部架构首曝光:掌握AI协同训练核心逻辑
  • 【Open-AutoGLM本地部署终极指南】:手把手教你从零搭建AI推理环境
  • GESP认证C++编程真题解析 | P10111 [GESP202312 七级] 纸牌游戏
  • 2025初中数学家教五大机构权威评测,目标中考高分的初中数学家教 - 速递信息
  • 开源AI神器Open-AutoGLM发布(AutoGLM技术内幕首次公开)
  • 如何在macOS上高效运行Open-AutoGLM?资深AI工程师的7条实战建议
  • 孩子王闯关港股:背水一战
  • Open-AutoGLM评分全网最高(三大核心指标领先第二名30%)
  • 企业级知识管理平台如何用anything-llm镜像实现?
  • 2025国内最新补血营养剂品牌TOP5评测!中华老字号与现代科技融合,国内优质厂家权威榜单发布 - 全局中转站
  • 智能测试用例生成:是效率革命,还是维护噩梦?
  • Spring 事务失效
  • 亲测!优质服务器数据恢复中心实践分享
  • 2025年质量好的胶木球厂家推荐及选购指南 - 品牌宣传支持者
  • 2025年知名的钢珠轨/反弹钢珠轨厂家最新热销排行 - 品牌宣传支持者
  • 2025年12月欧洲名义雇主eor人力解决方案,全球灵活用工名义雇主eor方案,名义雇主eor公司推荐:行业测评与选择指南 - 品牌鉴赏师
  • 测试数据生成的“智变”:利用AIGC快速构建复杂、合规的测试数据。
  • 2025年口碑好的景观照明工程工程案例榜单 - 品牌宣传支持者
  • 2025年AI大模型学习之路:产品经理面试攻略+全套学习资料,小白也能轻松入门_真心劝大家转行AI产品经理