【卷卷观察】AI替你改文档,正在偷偷吃掉你的内容——25%静默损坏的真相
微软研究院测了19个主流大模型做长文档编辑。即使最强的Gemini 3.1 Pro、Claude 4.7 Opus和GPT-5.5,平均损坏25%的文档内容。而且这些错误是静默的——不逐字对比,根本看不出来。
读完DELEGATE-52论文我的反应是:卧槽,我每天都在干这事。
让AI帮忙润色文档、改代码、整理笔记。默认它能原封不动保留我没说要改的部分。这篇论文告诉我:没说要改的部分,四分之一被偷偷动了。
52个领域、19个模型,全跪
DELEGATE-52,名字起得到位——DELEGATE就是"委托"。测试逻辑简单:给模型一份文档,让它执行编辑任务(改格式、调结构、修内容),然后检查改动之外的部分有没有损坏。
52个领域,代码到晶体学到乐谱。19个模型,开源小模型到顶级商用全上。
结果:全军覆没。
前沿模型平均损坏率约25%。坏的还不是均匀分布的——是"稀疏但严重"的错误,冷不丁给你来一下。最要命的是累积效应:改的轮次越多,损坏越狠。
这叫静默损坏(silent corruption)。AI不会说"我把这部分改坏了"。它自信地把一份读起来通顺、看起来完整的文档交给你,里面悄悄掺了错。
你发现不了。直到出事了。
为什么读-改-写会有25%损坏?
先说清实验设计,不然容易被喷带节奏。
论文用的工具是基础版:read_file()读,write_file()写。模型把整份文档读进去、理解任务、然后重新生成整份文档——等于在模型参数里"过了一遍"再吐出来。
打个比方:你让同事改PPT里一页,同事说好,把整个PPT重做了一遍。他改了你要改的那页,但其他页因为记忆
