2026年Context Engineering完全指南:上下文即代码
"Prompt Engineering 已死,Context Engineering 万岁。"这句在 AI 工程圈流传的话,道出了一个真相:决定 LLM 输出质量的,不是几句巧妙的措辞,而是你如何系统性地管理模型的上下文窗口。本文从理论到工程实践,为你完整呈现 Context Engineering 的核心方法论。
"Prompt Engineering 已死,Context Engineering 万岁。"这句在 AI 工程圈流传的话,道出了一个真相:决定 LLM 输出质量的,不是几句巧妙的措辞,而是你如何系统性地管理模型的上下文窗口。本文从理论到工程实践,为你完整呈现 Context Engineering 的核心方法论。
┌─────────────────────────────────────────────────┐│ System Prompt(系统指令) ││ - 角色定义 & 行为规范 ││ - 任务说明 & 输出格式 ││ - 约束条件 & 安全边界 │├─────────────────────────────────────────────────┤│ Retrieved Context(检索内容) ││ - 知识库检索结果 ││ - 相关文档片段 ││ - 结构化数据 │├─────────────────────────────────────────────────┤│ Tool Results(工具调用结果) ││ - API 返回数据 ││ - 代码执行结果 ││ - 搜索结果 │├─────────────────────────────────────────────────┤│ Conversation History(对话历史) ││ - 压缩后的历史摘要 ││ - 最近 N 轮完整对话 │├─────────────────────────────────────────────────┤│ Current User Input(当前输入) ││ - 用户消息 ││ - Few-shot 示例(如需要) │└─────────────────────────────────────────────────┘### 2.2 上下文窗口的「注意力分布」研究发现,Transformer 对上下文位置的注意力分布是不均匀的:-开头(系统提示区域):注意力最高-结尾(最新输入区域):注意力次高-中间(历史记录区域):注意力最低——即著名的「Lost in the Middle」问题工程含义:最重要的信息要放在开头或结尾,不要埋在中间。## 三、Context Engineering 六大核心技术### 3.1 动态上下文注入避免静态的「大而全」系统提示词,根据任务类型动态构建:pythonfrom typing import Literalclass ContextBuilder: def __init__(self): self.base_system = "你是一个专业的AI助手。" self.modules = { "coding": "你擅长编写高质量的Python/TypeScript代码,注重可读性和性能。", "analysis": "你擅长数据分析,能从数据中发现规律并给出可行建议。", "writing": "你擅长写作,风格清晰、结构严谨、观点鲜明。", } def build_system_prompt( self, task_type: Literal["coding", "analysis", "writing"], user_role: str = None, output_format: str = None, constraints: list[str] = None ) -> str: parts = [self.base_system, self.modules[task_type]] if user_role: parts.append(f"当前用户角色:{user_role}") if output_format: parts.append(f"输出格式要求:{output_format}") if constraints: parts.append("约束条件:") parts.extend(f"- {c}" for c in constraints) return "\n\n".join(parts)# 使用示例builder = ContextBuilder()system = builder.build_system_prompt( task_type="coding", user_role="高级工程师", output_format="提供代码 + 注释 + 单元测试", constraints=["使用 Python 3.10+", "遵循 PEP8", "不使用第三方库"])### 3.2 对话历史压缩对话越长,上下文越容易超限。采用滑动窗口 + 摘要的混合策略:pythonfrom openai import OpenAIclient = OpenAI()class ConversationManager: def __init__(self, max_recent_turns=6, summary_threshold=20): self.history = [] self.summary = "" self.max_recent = max_recent_turns self.summary_threshold = summary_threshold def add_turn(self, role: str, content: str): self.history.append({"role": role, "content": content}) # 超过阈值时触发压缩 if len(self.history) > self.summary_threshold: self._compress() def _compress(self): """将旧历史压缩为摘要""" old_turns = self.history[:-self.max_recent] conversation_text = "\n".join( f"{t['role']}: {t['content']}" for t in old_turns ) response = client.chat.completions.create( model="gpt-4o-mini", messages=[{ "role": "user", "content": f"请用3-5句话概括以下对话的核心内容和决策:\n\n{conversation_text}" }] ) new_summary = response.choices[0].message.content self.summary = f"{self.summary}\n{new_summary}".strip() # 只保留最近 N 轮 self.history = self.history[-self.max_recent:] def build_messages(self, user_input: str) -> list[dict]: messages = [] # 注入历史摘要 if self.summary: messages.append({ "role": "system", "content": f"历史对话摘要:{self.summary}" }) # 添加近期历史 messages.extend(self.history) # 添加当前输入 messages.append({"role": "user", "content": user_input}) return messages### 3.3 RAG 上下文精排不是检索到就放进去,要对检索结果精排后再注入:pythonfrom sentence_transformers import CrossEncoderclass ContextRanker: def __init__(self): # 使用 Cross-Encoder 做精排 self.reranker = CrossEncoder("cross-encoder/ms-marco-MiniLM-L-6-v2") def rank_and_filter( self, query: str, candidates: list[str], top_k: int = 3, min_score: float = 0.3 ) -> list[str]: """精排并过滤低相关度文档""" if not candidates: return [] # Cross-Encoder 打分 pairs = [(query, doc) for doc in candidates] scores = self.reranker.predict(pairs) # 排序并过滤 ranked = sorted( zip(candidates, scores), key=lambda x: x[1], reverse=True ) results = [ doc for doc, score in ranked[:top_k] if score >= min_score ] return results def format_context(self, docs: list[str]) -> str: """格式化为结构化上下文""" if not docs: return "" parts = ["以下是相关参考资料:\n"] for i, doc in enumerate(docs, 1): parts.append(f"[文档{i}]\n{doc}\n") return "\n".join(parts)### 3.4 工具调用结果压缩工具返回的原始数据可能很冗长,需要提取关键信息:pythondef compress_tool_result(tool_name: str, raw_result: dict, max_tokens: int = 500) -> str: """智能压缩工具返回结果""" # 估算 token 数(粗略:字符数 / 4) raw_text = str(raw_result) if len(raw_text) / 4 <= max_tokens: return raw_text # 超限时让模型压缩 response = client.chat.completions.create( model="gpt-4o-mini", messages=[{ "role": "user", "content": f"压缩以下{tool_name}工具返回结果,保留关键信息,控制在200字以内:\n\n{raw_text[:2000]}" }], max_tokens=300 ) return f"[已压缩] {response.choices[0].message.content}"### 3.5 Few-shot 示例动态选择不是固定几个例子,而是根据当前输入动态检索最相关的示例:pythonimport numpy as npfrom sklearn.metrics.pairwise import cosine_similarityclass DynamicFewShot: def __init__(self, examples: list[dict], embedder): """ examples: [{"input": "...", "output": "..."}] embedder: 文本嵌入函数 """ self.examples = examples self.embedder = embedder # 预计算所有示例的嵌入 self.embeddings = np.array([ embedder(ex["input"]) for ex in examples ]) def select(self, query: str, k: int = 3) -> list[dict]: """选择与 query 最相关的 k 个示例""" query_emb = np.array([self.embedder(query)]) sims = cosine_similarity(query_emb, self.embeddings)[0] top_indices = np.argsort(sims)[-k:][::-1] return [self.examples[i] for i in top_indices] def format(self, examples: list[dict]) -> str: parts = [] for ex in examples: parts.append(f"输入:{ex['input']}") parts.append(f"输出:{ex['output']}") parts.append("---") return "\n".join(parts)### 3.6 上下文窗口监控实时监控上下文使用情况,防止超限截断:pythonimport tiktokenclass ContextMonitor: def __init__(self, model: str = "gpt-4o", budget_ratio: float = 0.85): self.enc = tiktoken.encoding_for_model(model) # 各模型的最大 token 数 self.max_tokens = { "gpt-4o": 128000, "claude-3-5-sonnet": 200000, "gemini-1.5-pro": 1000000, } self.model = model self.budget = int(self.max_tokens.get(model, 128000) * budget_ratio) def count(self, text: str) -> int: return len(self.enc.encode(text)) def count_messages(self, messages: list[dict]) -> int: total = 0 for msg in messages: total += self.count(msg.get("content", "")) total += 4 # 消息格式开销 return total def check_budget(self, messages: list[dict]) -> dict: used = self.count_messages(messages) remaining = self.budget - used return { "used": used, "budget": self.budget, "remaining": remaining, "usage_ratio": used / self.budget, "ok": remaining > 0 }## 四、Context Engineering 工程化最佳实践### 4.1 上下文构建流水线pythonclass ContextPipeline: """上下文构建流水线""" def __init__(self): self.monitor = ContextMonitor() self.ranker = ContextRanker() self.conv_manager = ConversationManager() async def build( self, user_input: str, retrieved_docs: list[str] = None, tool_results: list[dict] = None, task_type: str = "general" ) -> list[dict]: messages = [] # 1. 系统提示 system = self._build_system(task_type) messages.append({"role": "system", "content": system}) # 2. 注入检索内容(精排后) if retrieved_docs: ranked_docs = self.ranker.rank_and_filter(user_input, retrieved_docs) if ranked_docs: ctx = self.ranker.format_context(ranked_docs) messages.append({"role": "system", "content": ctx}) # 3. 注入工具结果 for tr in (tool_results or []): compressed = compress_tool_result(tr["name"], tr["result"]) messages.append({ "role": "tool", "content": compressed, "tool_call_id": tr.get("id", "") }) # 4. 对话历史(含压缩摘要) history_messages = self.conv_manager.build_messages(user_input) messages.extend(history_messages) # 5. 检查预算 budget = self.monitor.check_budget(messages) if not budget["ok"]: # 超限时截断历史 messages = self._truncate(messages, self.monitor.budget) return messages## 五、与 Prompt Engineering 的关系Context Engineering 不是抛弃 Prompt Engineering,而是升维:-Prompt Engineering:关注单次交互的措辞优化-Context Engineering:关注整个信息流的系统设计好的 Context Engineering 包含好的 Prompt Engineering,但反之不然。当你的 AI 应用从 Demo 走向生产,从 Prompt Engineering 升级到 Context Engineering 是必然路径。判断你是否需要 Context Engineering 的三个信号:1. 用户反馈模型「忘记」了之前说过的内容2. 模型在长对话后输出质量明显下降3. 检索增强的内容没有被模型有效利用如果以上任何一条符合,是时候系统性地思考你的上下文管理策略了。