Anthropic、OpenClaw让AI“做梦”“记忆”,SubQ模型拓展上下文,模糊人机边界!
AI“做梦”:从科幻想象到现实功能
1968年,科幻电影《银翼杀手》原著作者菲利普·K·迪克提出“仿生人会做梦吗?会梦见电子羊吗?”半个多世纪后,硅谷科技巨头给出答案。昨天,Anthropic在旧金山开发者大会上,发布智能体构建平台Managed Agents的新功能,包括记忆扩展、结果输出、多智能体协作以及「做梦Dreaming」。
AI“做梦”的本质与机制
早在2024年OpenAI推出o1系列时,就将“思考”等人类行为用于AI。而Anthropic的“做梦”功能,本质是自动化的离线日志批处理。AI Agent完成长链路复杂任务后,后台会留下海量运行日志,“做梦”功能让Agent在闲置时间重新梳理历史记录,寻找模式,优化操作路径。“记忆”负责捕获学到的东西,“做梦”则提炼记忆并共享。
不同AI产品的“做梦”功能
Claude Code代码泄露事件中,网友发现Anthropic准备Auto Dreaming功能。开发者大会更新的Managed Agents里的Dreams需手动触发,Claude一次能读最多100个session的对话历史。之前Claude Code里的AutoDream默认24小时跑一次。Hermes Agent也有类似功能,能自我学习和进化,Curator功能可将操作指南整理成Skill。OpenClaw在更新中添加相关机制,其做梦机制分light、REM、deep三个阶段,深度睡眠阶段由6个加权信号决定是否写入长期记忆,还会生成面向机器和用户的文件,Dreaming默认每天凌晨3点自动运行,系统会生成“梦境日记”。
AI的记忆与上下文工程
AI的“做梦”离不开记忆。目前AI圈最有价值的是上下文工程,系统提示、用户输入等叠加构成agent的“上下文”。让Agent记得更多有用内容是难题,Manus优化上下文工程,提到KV - Cache缓存命中率是重要指标,还介绍了工具调用和文件系统相关方法。KV - Cache是大模型“用空间换时间”的底层加速技术,一般大模型上下文窗口最多百万级别。
SubQ模型拓展上下文
昨天,拿到2900万美元种子轮融资的新公司Subquadratic发布SubQ新模型,主打更长上下文,宣称可支持最高1200万token上下文窗口。其核心技术路线从“稠密注意力”转向“次二次/线性扩展”架构,有望解决上下文长算力成本高的问题。测试结果显示,在100万token下速度提升超50倍、成本降低超50倍;在1200万token时,算力需求较前沿模型降低近1000倍。在RULER 128K长上下文基准上,SubQ成本下降约300倍。
AI用词模糊人机边界
AI公司用“思考”“记忆”“做梦”等词描述机器,不仅在卖产品,还在重新分配“人”概念里的词汇所有权,模糊了机器和人的边界。同时,这种用词影响责任分配,出问题时人们易把AI当成独立“行为主体”追责,而真正应被追问的是部署程序的公司和产品团队。
