当前位置: 首页 > news >正文

Skill系列:01AI 对话最难的不是提问,是维护一个干净的上下文

你有没有发现,AI 用着用着就变傻了?

明明刚才还在好好讨论问题,突然就开始答非所问。明明是同一个问题,在不同对话里问,答案质量天差地别。

过去半年,我也遇到了这个问题。

一开始我以为是 AI“心情不好”。后来我才意识到,问题不在 AI,而在我。

我在一个对话里,同时做了太多事情。我让 AI 帮我调试一段代码,然后问它实验设计的问题,接着又让它帮我分析数据,最后想继续讨论代码,却发现 AI 已经“忘了”我们在聊什么。

我把这个对话的“记忆”聊废了。

这就像你在和一个朋友讨论强化学习的 reward shaping,突然塞给他一本 300 页的 NLP 教材,然后指望他还能记得你们刚才说到哪儿了。

不可能的。

一、上下文不是“记忆容量”,而是“注意力资源”

一开始我很不服气。我觉得 AI 应该“足够聪明”,能区分我的不同需求,能在一个对话里处理多个任务。

直到我看到 Anthropic 的一组数据:当上下文从 8K 增加到 128K tokens 时,模型的信息检索准确率会下降 15%-30%。

这个数据让我恍然大悟。

问题不是 AI“不够聪明”,而是上下文越长,AI 需要处理的“噪音”就越多。就像你在一个嘈杂的酒吧里,即使对方说话的音量没变,你也会听得越来越吃力。

这让我想起认知科学里的一个经典发现:人类的工作记忆只有 7±2 个信息块。

不是说你只能记住 7 个东西,而是说你能同时处理的信息块只有这么多。超过这个数量,你的注意力就会被稀释,思考质量就会下降。

AI 的上下文窗口,本质上也是一种“工作记忆”。

它不是一个无限大的硬盘,而是一个有限的“注意力资源池”。当你在一个对话里塞进越来越多的内容时,AI 需要在这些内容之间分配注意力。

就像你在一个 Word 文档里同时写论文、购物清单、日记、代码注释。每次你想继续写论文,都要先翻一遍前面的内容,回忆“我刚才写到哪儿了”。

你的注意力被碎片化了。

AI 也一样。当一个对话里既有实验设计、又有代码调试、还有数据分析时,AI 每次回答你的问题,都要先“扫描”整个上下文,判断“现在我们在聊什么”。

而那些无关的内容,就像噪音一样,干扰着 AI 的判断。

我把这种现象叫做“上下文污染”。

说到这里,你可能会想:那我该怎么避免上下文污染?

别急,我先要告诉你一个更重要的认知转变。

二、对话不是容器,而是流动的河流

理解了“注意力资源”的概念后,我开始重新思考“对话”这件事。

以前我把对话当成一个“容器”。我觉得只要不超过上下文窗口的限制,我就可以往里面塞任何东西。

但后来我发现,对话更像一条河流。

河流有它的流向。你不能在同一条河里,既让水往东流,又让水往西流。你也不能在一条清澈的河里,突然倒进一桶泥浆,然后指望河水还能保持清澈。

每次你在对话里切换话题,就像在河流里扔进一块巨石。河水的流向会被打乱,清澈度会下降。

好的对话,应该有清晰的“流向”。

它应该围绕一个核心问题,层层深入。就像你在写一篇论文,每一段都在为同一个论点服务。

而不是像一个杂货铺,什么都往里塞。

那么问题来了:如何才能让对话保持“清晰的流向”?

这就是我接下来要说的解决方案。

三、Skill 的本质:可复用的“专业能力包”

后来我发现了一个更优雅的解决方案:Skill

很多人以为 Skill 只是“更高级的提示词”。但这是个误解。

Skill 是一个可以安装、可以复用的“专业能力包”。

它不是一句话的指令,而是一个封装好的系统,里面包含了:

  • 这个能力要解决什么问题(需求)
  • 这个能力的边界在哪里(约束)
  • 这个能力应该输出什么(格式)
  • 这个能力需要什么领域知识(最佳实践)

想象一下,你在主线程里深入调试一个模型训练问题。调试到一半,你需要快速检查一段数据预处理代码的逻辑。

传统做法是:直接在当前对话里问 AI“帮我审查这段代码”。

结果呢?AI 开始输出大段的代码分析,你的模型调试思路被打断了,整个对话的“流向”被改变了。

而 Skill 的做法是:

  1. 你调用一个“代码审查”Skill
  2. Skill 知道自己的任务边界:只检查逻辑错误和性能问题,不展开优化建议
  3. Skill 完成任务,输出结果,然后退出
  4. 你的主对话保持干净,就像什么都没发生过

这就像:

  • 你在主线程里调试模型
  • 需要检查代码时,开个子进程跑 Skill
  • 子进程结束后,主线程的“记忆”完全干净

Skill 为你的对话建立了“隔离舱”。

它让你可以在不污染主对话的前提下,调用各种专用能力。

但这里还有一个更深层的转变,很多人都忽略了。

四、2026 年的核心转变:从“教 AI 做事”到“给 AI 需求”

这里有个更深层的认知转变。

以前(2023-2024 年),我们用 AI 的方式是“教”。

我们会写很详细的提示词,手把手教 AI:

  • 第一步,你要做什么
  • 第二步,你要做什么
  • 第三步,你要做什么

这种方式有个致命问题:你把所有步骤都塞进上下文,反而造成了污染。

而 2026 年的新范式是:给 AI 需求和边界,让它自己推理。

你不需要告诉 AI“怎么做”,你只需要告诉它:

  • 你要解决什么问题(需求)
  • 你不能做什么(边界)
  • 你应该输出什么(格式)

AI 会自己找到最优路径。

这就像:

  • 旧方式:你是导航,一步步告诉司机“左转、右转、直行”
  • 新方式:你是乘客,告诉司机“去机场,走高速,1 小时内到”

司机(AI)会自己规划路线,而你不需要把整张地图都塞进他的脑子里。

这就是 Skill 的核心价值:它封装了“需求+边界”,而不是“详细步骤”。

五、对话的“熵增”与“重启”

还有一个有趣的发现:对话是有“生命周期”的。

即使你一直围绕同一个话题,对话也会随着轮次的增加,逐渐变得“混乱”。

这让我想起热力学第二定律:熵增原理

一个封闭系统,总是会从有序走向无序。除非你从外部输入能量,重新整理。

对话也是一样。随着对话的进行,各种细节、分支、补充说明会不断累积。即使这些内容都是相关的,它们也会让对话变得越来越“稠密”,越来越难以聚焦。

对话的熵在增加。

解决方案是:定期“重启”对话。

当一个对话已经聊了 50 轮,我会主动开新对话,把之前的核心结论总结一下,作为新对话的起点。

这就像电脑用久了要重启,清理内存碎片。

重启不是放弃,而是升华。

你把之前的探索浓缩成精华,然后在更高的起点上继续前进。

💡 3 个立刻能用的建议

看到这里,你可能会想:道理我都懂了,但明天我该怎么做?

给你 3 个建议:

1. 今天就做:给每个对话定一个“主题标签”

  • 开始新对话时,先问自己:“这个对话只聊什么?”
  • 在对话开头写下主题,比如“这个对话只讨论强化学习调参”
  • 需要做其他事?开新对话,或者用 Skill

2. 这周尝试:把一个常用任务做成 Skill

  • 找一个你经常重复做的任务(比如“代码审查”或“实验日志整理”)
  • 定义清楚:它要解决什么问题?边界在哪里?输出是什么?
  • 用一次,看看效果,然后不断优化

3. 长期养成:对话超过 30 轮就“重启”

  • 当对话变得很长时,主动开新对话
  • 把之前的核心结论总结成 3-5 句话,作为新对话的起点
  • 这就像电脑重启,清理内存碎片

写在最后

AI 对话最难的,不是写出“完美提示词”,而是维护一个干净的上下文

上下文就像你的工作台:

  • 堆满杂物,你找不到重点
  • 保持整洁,你效率翻倍

Skill 的本质,是帮你做“认知隔离”。

它不是让 AI 变得更强大,而是让你的对话变得更专注。它封装的不是“详细步骤”,而是“需求+边界+领域知识”。

下次当你发现 AI 的回答质量下降时,别急着怀疑 AI。

先问问自己:

我的对话,还保持着清晰的“流向”吗?
我是在“教 AI 做事”,还是在“给 AI 需求”?
我的上下文,是清澈的河流,还是混浊的泥潭?

当你开始这样思考时,你就不再是一个“提示词工程师”。
你正在成为一名“对话架构师”。

#AI 工具 # 认知科学 # 工作流设计 # 深度思考你有没有发现,AI 用着用着就变傻了?

明明刚才还在好好讨论问题,突然就开始答非所问。明明是同一个问题,在不同对话里问,答案质量天差地别。

过去半年,我也遇到了这个问题。

一开始我以为是 AI“心情不好”。后来我才意识到,问题不在 AI,而在我。

我在一个对话里,同时做了太多事情。我让 AI 帮我调试一段代码,然后问它实验设计的问题,接着又让它帮我分析数据,最后想继续讨论代码,却发现 AI 已经“忘了”我们在聊什么。

我把这个对话的“记忆”聊废了。

这就像你在和一个朋友讨论强化学习的 reward shaping,突然塞给他一本 300 页的 NLP 教材,然后指望他还能记得你们刚才说到哪儿了。

不可能的。

一、上下文不是“记忆容量”,而是“注意力资源”

一开始我很不服气。我觉得 AI 应该“足够聪明”,能区分我的不同需求,能在一个对话里处理多个任务。

直到我看到 Anthropic 的一组数据:当上下文从 8K 增加到 128K tokens 时,模型的信息检索准确率会下降 15%-30%。

这个数据让我恍然大悟。

问题不是 AI“不够聪明”,而是上下文越长,AI 需要处理的“噪音”就越多。就像你在一个嘈杂的酒吧里,即使对方说话的音量没变,你也会听得越来越吃力。

这让我想起认知科学里的一个经典发现:人类的工作记忆只有 7±2 个信息块。

不是说你只能记住 7 个东西,而是说你能同时处理的信息块只有这么多。超过这个数量,你的注意力就会被稀释,思考质量就会下降。

AI 的上下文窗口,本质上也是一种“工作记忆”。

它不是一个无限大的硬盘,而是一个有限的“注意力资源池”。当你在一个对话里塞进越来越多的内容时,AI 需要在这些内容之间分配注意力。

就像你在一个 Word 文档里同时写论文、购物清单、日记、代码注释。每次你想继续写论文,都要先翻一遍前面的内容,回忆“我刚才写到哪儿了”。

你的注意力被碎片化了。

AI 也一样。当一个对话里既有实验设计、又有代码调试、还有数据分析时,AI 每次回答你的问题,都要先“扫描”整个上下文,判断“现在我们在聊什么”。

而那些无关的内容,就像噪音一样,干扰着 AI 的判断。

我把这种现象叫做“上下文污染”。

说到这里,你可能会想:那我该怎么避免上下文污染?

别急,我先要告诉你一个更重要的认知转变。

二、对话不是容器,而是流动的河流

理解了“注意力资源”的概念后,我开始重新思考“对话”这件事。

以前我把对话当成一个“容器”。我觉得只要不超过上下文窗口的限制,我就可以往里面塞任何东西。

但后来我发现,对话更像一条河流。

河流有它的流向。你不能在同一条河里,既让水往东流,又让水往西流。你也不能在一条清澈的河里,突然倒进一桶泥浆,然后指望河水还能保持清澈。

每次你在对话里切换话题,就像在河流里扔进一块巨石。河水的流向会被打乱,清澈度会下降。

好的对话,应该有清晰的“流向”。

它应该围绕一个核心问题,层层深入。就像你在写一篇论文,每一段都在为同一个论点服务。

而不是像一个杂货铺,什么都往里塞。

那么问题来了:如何才能让对话保持“清晰的流向”?

这就是我接下来要说的解决方案。

三、Skill 的本质:可复用的“专业能力包”

后来我发现了一个更优雅的解决方案:Skill

很多人以为 Skill 只是“更高级的提示词”。但这是个误解。

Skill 是一个可以安装、可以复用的“专业能力包”。

它不是一句话的指令,而是一个封装好的系统,里面包含了:

  • 这个能力要解决什么问题(需求)
  • 这个能力的边界在哪里(约束)
  • 这个能力应该输出什么(格式)
  • 这个能力需要什么领域知识(最佳实践)

想象一下,你在主线程里深入调试一个模型训练问题。调试到一半,你需要快速检查一段数据预处理代码的逻辑。

传统做法是:直接在当前对话里问 AI“帮我审查这段代码”。

结果呢?AI 开始输出大段的代码分析,你的模型调试思路被打断了,整个对话的“流向”被改变了。

而 Skill 的做法是:

  1. 你调用一个“代码审查”Skill
  2. Skill 知道自己的任务边界:只检查逻辑错误和性能问题,不展开优化建议
  3. Skill 完成任务,输出结果,然后退出
  4. 你的主对话保持干净,就像什么都没发生过

这就像:

  • 你在主线程里调试模型
  • 需要检查代码时,开个子进程跑 Skill
  • 子进程结束后,主线程的“记忆”完全干净

Skill 为你的对话建立了“隔离舱”。

它让你可以在不污染主对话的前提下,调用各种专用能力。

但这里还有一个更深层的转变,很多人都忽略了。

四、2026 年的核心转变:从“教 AI 做事”到“给 AI 需求”

这里有个更深层的认知转变。

以前(2023-2024 年),我们用 AI 的方式是“教”。

我们会写很详细的提示词,手把手教 AI:

  • 第一步,你要做什么
  • 第二步,你要做什么
  • 第三步,你要做什么

这种方式有个致命问题:你把所有步骤都塞进上下文,反而造成了污染。

而 2026 年的新范式是:给 AI 需求和边界,让它自己推理。

你不需要告诉 AI“怎么做”,你只需要告诉它:

  • 你要解决什么问题(需求)
  • 你不能做什么(边界)
  • 你应该输出什么(格式)

AI 会自己找到最优路径。

这就像:

  • 旧方式:你是导航,一步步告诉司机“左转、右转、直行”
  • 新方式:你是乘客,告诉司机“去机场,走高速,1 小时内到”

司机(AI)会自己规划路线,而你不需要把整张地图都塞进他的脑子里。

这就是 Skill 的核心价值:它封装了“需求+边界”,而不是“详细步骤”。

五、对话的“熵增”与“重启”

还有一个有趣的发现:对话是有“生命周期”的。

即使你一直围绕同一个话题,对话也会随着轮次的增加,逐渐变得“混乱”。

这让我想起热力学第二定律:熵增原理

一个封闭系统,总是会从有序走向无序。除非你从外部输入能量,重新整理。

对话也是一样。随着对话的进行,各种细节、分支、补充说明会不断累积。即使这些内容都是相关的,它们也会让对话变得越来越“稠密”,越来越难以聚焦。

对话的熵在增加。

解决方案是:定期“重启”对话。

当一个对话已经聊了 50 轮,我会主动开新对话,把之前的核心结论总结一下,作为新对话的起点。

这就像电脑用久了要重启,清理内存碎片。

重启不是放弃,而是升华。

你把之前的探索浓缩成精华,然后在更高的起点上继续前进。

💡 3 个立刻能用的建议

看到这里,你可能会想:道理我都懂了,但明天我该怎么做?

给你 3 个建议:

1. 今天就做:给每个对话定一个“主题标签”

  • 开始新对话时,先问自己:“这个对话只聊什么?”
  • 在对话开头写下主题,比如“这个对话只讨论强化学习调参”
  • 需要做其他事?开新对话,或者用 Skill

2. 这周尝试:把一个常用任务做成 Skill

  • 找一个你经常重复做的任务(比如“代码审查”或“实验日志整理”)
  • 定义清楚:它要解决什么问题?边界在哪里?输出是什么?
  • 用一次,看看效果,然后不断优化

3. 长期养成:对话超过 30 轮就“重启”

  • 当对话变得很长时,主动开新对话
  • 把之前的核心结论总结成 3-5 句话,作为新对话的起点
  • 这就像电脑重启,清理内存碎片

写在最后

AI 对话最难的,不是写出“完美提示词”,而是维护一个干净的上下文

上下文就像你的工作台:

  • 堆满杂物,你找不到重点
  • 保持整洁,你效率翻倍

Skill 的本质,是帮你做“认知隔离”。

它不是让 AI 变得更强大,而是让你的对话变得更专注。它封装的不是“详细步骤”,而是“需求+边界+领域知识”。

下次当你发现 AI 的回答质量下降时,别急着怀疑 AI。

先问问自己:

我的对话,还保持着清晰的“流向”吗?
我是在“教 AI 做事”,还是在“给 AI 需求”?
我的上下文,是清澈的河流,还是混浊的泥潭?

当你开始这样思考时,你就不再是一个“提示词工程师”。
你正在成为一名“对话架构师”。

http://www.jsqmd.com/news/449244/

相关文章:

  • 基于导向滤波的暗通道去雾算法在灰度与彩色图像可见度复原中的研究附Matlab代码
  • 2026年北京婚姻律师电话查询推荐:五大专业律师联系指南 - 十大品牌推荐
  • 计算机毕业设计源码:基于python的双协同过滤的电商推荐系统 Django 可视化 推荐算法 数据分析 大数据 人工智能 数据挖掘 数据仓库 机器学习 深度学习 deepseek(建议收藏)✅
  • 基于springboot的师生共评的作业管理系统的设计与实现项目源码 java毕设 免费分享
  • 揭秘苹果App Store审核: 1分钟被拒4.3a
  • 网站图片怎么添加alt属性值?
  • 零基础教程根据录音形成会议纪要包教包会避坑指南
  • 中兴B860AV1.1-T/AV2.1全型号通刷指南:S905L/S905M-B芯片线刷当贝纯净桌面实战教程
  • 激光切割机选购要点,江苏靠谱的制造厂推荐 - 工业品网
  • 1502. 判断能否形成等差数列
  • 好用的ModbusRTU转ModbusTCP制造商怎么选购? - 工业设备
  • 【2026年】软考中级-软件设计师备考攻略
  • JDBC04
  • PiuPiu酱 2.1.7 | 无敏感限制聊天,虚拟女友,永久限制,免费使用
  • 分析跨境电商退税申报平台,哪家性价比高且好用? - 工业品牌热点
  • Java如何通过局域网实现TB级文件夹分片断点续传的完整解决方案?
  • 探索S7 - 200 PLC与组态王在温度PID控制加热炉电阻炉中的奇妙应用
  • open claw小龙虾接入QQ教程
  • BMAD Method:用敏捷流程驯服 AI 编码
  • 安装雷达驱动livox_ros_driver2 CMake Error (问AI说是缺少livox_interfaces包)
  • 求助,PTA简单算法题,为什么我的思路不对呢???
  • 谷歌AI专家揭秘:2025年提示工程架构师的核心工作是什么?
  • 【影刀RPA】【企业微信】之【聊天记录提取】【获取-指定-日期-聊天记录】
  • Web应用如何在局域网内用Java实现超大附件多线程分块加密上传?
  • 强烈安利! 一键生成论文工具,千笔·专业学术智能体 VS 笔捷Ai,专为本科生量身打造!
  • 【Model】【llm99】大语言模型LLM与LlamaIndex 集成培训总体介绍
  • 百度文库文件上传时间可以修改吗?有没有备选方案
  • B4156 [厦门小学生 C++ 2023] 太空旅行
  • 流量怎么用:以莆田“全到莆田过大年”为例——生成论视角下的注意力分配实践分析
  • 【C++进阶】万字长文带你死磕高级数据结构:并查集/树状数组/线段树/主席树 (附超全模板)