news 2026/4/23 13:22:18

2026年Context Engineering完全指南:上下文即代码

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
2026年Context Engineering完全指南:上下文即代码

"Prompt Engineering 已死,Context Engineering 万岁。"这句在 AI 工程圈流传的话,道出了一个真相:决定 LLM 输出质量的,不是几句巧妙的措辞,而是你如何系统性地管理模型的上下文窗口。本文从理论到工程实践,为你完整呈现 Context Engineering 的核心方法论。

一、从 Prompt Engineering 到 Context EngineeringPrompt Engineering 的思维模式是:找到「魔法咒语」,让模型输出你想要的。这在早期 GPT-3 时代够用,但随着 LLM 被部署到复杂的生产系统中,这种思维开始失效。**为什么 Prompt Engineering 不够了?**现代 LLM 应用中,影响输出质量的因素远不止 prompt 措辞:- 系统提示词的结构和内容- 工具调用的历史记录- 检索到的相关文档- 对话历史的保留策略- 示例(few-shot)的选择与排序- 上下文窗口的使用效率Context Engineering 的定义:系统性地设计、构建和管理传入 LLM 上下文窗口的所有信息,以最大化输出质量和推理准确性。核心转变:从「写好提示词」到「工程化地管理信息输入」。## 二、上下文窗口的解剖理解 Context Engineering,首先要理解上下文窗口的结构。### 2.1 典型上下文窗口的组成┌─────────────────────────────────────────────────┐│ System Prompt(系统指令) ││ - 角色定义 & 行为规范 ││ - 任务说明 & 输出格式 ││ - 约束条件 & 安全边界 │├─────────────────────────────────────────────────┤│ Retrieved Context(检索内容) ││ - 知识库检索结果 ││ - 相关文档片段 ││ - 结构化数据 │├─────────────────────────────────────────────────┤│ Tool Results(工具调用结果) ││ - API 返回数据 ││ - 代码执行结果 ││ - 搜索结果 │├─────────────────────────────────────────────────┤│ Conversation History(对话历史) ││ - 压缩后的历史摘要 ││ - 最近 N 轮完整对话 │├─────────────────────────────────────────────────┤│ Current User Input(当前输入) ││ - 用户消息 ││ - Few-shot 示例(如需要) │└─────────────────────────────────────────────────┘### 2.2 上下文窗口的「注意力分布」研究发现,Transformer 对上下文位置的注意力分布是不均匀的:-开头(系统提示区域):注意力最高-结尾(最新输入区域):注意力次高-中间(历史记录区域):注意力最低——即著名的「Lost in the Middle」问题工程含义:最重要的信息要放在开头或结尾,不要埋在中间。## 三、Context Engineering 六大核心技术### 3.1 动态上下文注入避免静态的「大而全」系统提示词,根据任务类型动态构建:pythonfrom typing import Literalclass ContextBuilder: def __init__(self): self.base_system = "你是一个专业的AI助手。" self.modules = { "coding": "你擅长编写高质量的Python/TypeScript代码,注重可读性和性能。", "analysis": "你擅长数据分析,能从数据中发现规律并给出可行建议。", "writing": "你擅长写作,风格清晰、结构严谨、观点鲜明。", } def build_system_prompt( self, task_type: Literal["coding", "analysis", "writing"], user_role: str = None, output_format: str = None, constraints: list[str] = None ) -> str: parts = [self.base_system, self.modules[task_type]] if user_role: parts.append(f"当前用户角色:{user_role}") if output_format: parts.append(f"输出格式要求:{output_format}") if constraints: parts.append("约束条件:") parts.extend(f"- {c}" for c in constraints) return "\n\n".join(parts)# 使用示例builder = ContextBuilder()system = builder.build_system_prompt( task_type="coding", user_role="高级工程师", output_format="提供代码 + 注释 + 单元测试", constraints=["使用 Python 3.10+", "遵循 PEP8", "不使用第三方库"])### 3.2 对话历史压缩对话越长,上下文越容易超限。采用滑动窗口 + 摘要的混合策略:pythonfrom openai import OpenAIclient = OpenAI()class ConversationManager: def __init__(self, max_recent_turns=6, summary_threshold=20): self.history = [] self.summary = "" self.max_recent = max_recent_turns self.summary_threshold = summary_threshold def add_turn(self, role: str, content: str): self.history.append({"role": role, "content": content}) # 超过阈值时触发压缩 if len(self.history) > self.summary_threshold: self._compress() def _compress(self): """将旧历史压缩为摘要""" old_turns = self.history[:-self.max_recent] conversation_text = "\n".join( f"{t['role']}: {t['content']}" for t in old_turns ) response = client.chat.completions.create( model="gpt-4o-mini", messages=[{ "role": "user", "content": f"请用3-5句话概括以下对话的核心内容和决策:\n\n{conversation_text}" }] ) new_summary = response.choices[0].message.content self.summary = f"{self.summary}\n{new_summary}".strip() # 只保留最近 N 轮 self.history = self.history[-self.max_recent:] def build_messages(self, user_input: str) -> list[dict]: messages = [] # 注入历史摘要 if self.summary: messages.append({ "role": "system", "content": f"历史对话摘要:{self.summary}" }) # 添加近期历史 messages.extend(self.history) # 添加当前输入 messages.append({"role": "user", "content": user_input}) return messages### 3.3 RAG 上下文精排不是检索到就放进去,要对检索结果精排后再注入:pythonfrom sentence_transformers import CrossEncoderclass ContextRanker: def __init__(self): # 使用 Cross-Encoder 做精排 self.reranker = CrossEncoder("cross-encoder/ms-marco-MiniLM-L-6-v2") def rank_and_filter( self, query: str, candidates: list[str], top_k: int = 3, min_score: float = 0.3 ) -> list[str]: """精排并过滤低相关度文档""" if not candidates: return [] # Cross-Encoder 打分 pairs = [(query, doc) for doc in candidates] scores = self.reranker.predict(pairs) # 排序并过滤 ranked = sorted( zip(candidates, scores), key=lambda x: x[1], reverse=True ) results = [ doc for doc, score in ranked[:top_k] if score >= min_score ] return results def format_context(self, docs: list[str]) -> str: """格式化为结构化上下文""" if not docs: return "" parts = ["以下是相关参考资料:\n"] for i, doc in enumerate(docs, 1): parts.append(f"[文档{i}]\n{doc}\n") return "\n".join(parts)### 3.4 工具调用结果压缩工具返回的原始数据可能很冗长,需要提取关键信息:pythondef compress_tool_result(tool_name: str, raw_result: dict, max_tokens: int = 500) -> str: """智能压缩工具返回结果""" # 估算 token 数(粗略:字符数 / 4) raw_text = str(raw_result) if len(raw_text) / 4 <= max_tokens: return raw_text # 超限时让模型压缩 response = client.chat.completions.create( model="gpt-4o-mini", messages=[{ "role": "user", "content": f"压缩以下{tool_name}工具返回结果,保留关键信息,控制在200字以内:\n\n{raw_text[:2000]}" }], max_tokens=300 ) return f"[已压缩] {response.choices[0].message.content}"### 3.5 Few-shot 示例动态选择不是固定几个例子,而是根据当前输入动态检索最相关的示例:pythonimport numpy as npfrom sklearn.metrics.pairwise import cosine_similarityclass DynamicFewShot: def __init__(self, examples: list[dict], embedder): """ examples: [{"input": "...", "output": "..."}] embedder: 文本嵌入函数 """ self.examples = examples self.embedder = embedder # 预计算所有示例的嵌入 self.embeddings = np.array([ embedder(ex["input"]) for ex in examples ]) def select(self, query: str, k: int = 3) -> list[dict]: """选择与 query 最相关的 k 个示例""" query_emb = np.array([self.embedder(query)]) sims = cosine_similarity(query_emb, self.embeddings)[0] top_indices = np.argsort(sims)[-k:][::-1] return [self.examples[i] for i in top_indices] def format(self, examples: list[dict]) -> str: parts = [] for ex in examples: parts.append(f"输入:{ex['input']}") parts.append(f"输出:{ex['output']}") parts.append("---") return "\n".join(parts)### 3.6 上下文窗口监控实时监控上下文使用情况,防止超限截断:pythonimport tiktokenclass ContextMonitor: def __init__(self, model: str = "gpt-4o", budget_ratio: float = 0.85): self.enc = tiktoken.encoding_for_model(model) # 各模型的最大 token 数 self.max_tokens = { "gpt-4o": 128000, "claude-3-5-sonnet": 200000, "gemini-1.5-pro": 1000000, } self.model = model self.budget = int(self.max_tokens.get(model, 128000) * budget_ratio) def count(self, text: str) -> int: return len(self.enc.encode(text)) def count_messages(self, messages: list[dict]) -> int: total = 0 for msg in messages: total += self.count(msg.get("content", "")) total += 4 # 消息格式开销 return total def check_budget(self, messages: list[dict]) -> dict: used = self.count_messages(messages) remaining = self.budget - used return { "used": used, "budget": self.budget, "remaining": remaining, "usage_ratio": used / self.budget, "ok": remaining > 0 }## 四、Context Engineering 工程化最佳实践### 4.1 上下文构建流水线pythonclass ContextPipeline: """上下文构建流水线""" def __init__(self): self.monitor = ContextMonitor() self.ranker = ContextRanker() self.conv_manager = ConversationManager() async def build( self, user_input: str, retrieved_docs: list[str] = None, tool_results: list[dict] = None, task_type: str = "general" ) -> list[dict]: messages = [] # 1. 系统提示 system = self._build_system(task_type) messages.append({"role": "system", "content": system}) # 2. 注入检索内容(精排后) if retrieved_docs: ranked_docs = self.ranker.rank_and_filter(user_input, retrieved_docs) if ranked_docs: ctx = self.ranker.format_context(ranked_docs) messages.append({"role": "system", "content": ctx}) # 3. 注入工具结果 for tr in (tool_results or []): compressed = compress_tool_result(tr["name"], tr["result"]) messages.append({ "role": "tool", "content": compressed, "tool_call_id": tr.get("id", "") }) # 4. 对话历史(含压缩摘要) history_messages = self.conv_manager.build_messages(user_input) messages.extend(history_messages) # 5. 检查预算 budget = self.monitor.check_budget(messages) if not budget["ok"]: # 超限时截断历史 messages = self._truncate(messages, self.monitor.budget) return messages## 五、与 Prompt Engineering 的关系Context Engineering 不是抛弃 Prompt Engineering,而是升维:-Prompt Engineering:关注单次交互的措辞优化-Context Engineering:关注整个信息流的系统设计好的 Context Engineering 包含好的 Prompt Engineering,但反之不然。当你的 AI 应用从 Demo 走向生产,从 Prompt Engineering 升级到 Context Engineering 是必然路径。判断你是否需要 Context Engineering 的三个信号:1. 用户反馈模型「忘记」了之前说过的内容2. 模型在长对话后输出质量明显下降3. 检索增强的内容没有被模型有效利用如果以上任何一条符合,是时候系统性地思考你的上下文管理策略了。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/23 13:18:08

DL/T 645 协议实战解析:从帧结构到数据采集

1. DL/T 645协议基础入门 第一次接触DL/T 645协议时&#xff0c;我也被那些专业术语搞得一头雾水。但实际用起来才发现&#xff0c;这个协议就像电力行业的"普通话"&#xff0c;专门用来让智能电表和采集设备顺畅交流。简单来说&#xff0c;它就是一套规定了电表怎么…

作者头像 李华
网站建设 2026/4/23 13:13:47

终极Unity调试神器:如何在游戏中实时查看和修改Unity对象属性

终极Unity调试神器&#xff1a;如何在游戏中实时查看和修改Unity对象属性 【免费下载链接】UnityExplorer An in-game UI for exploring, debugging and modifying IL2CPP and Mono Unity games. 项目地址: https://gitcode.com/gh_mirrors/un/UnityExplorer 你是否曾经…

作者头像 李华
网站建设 2026/4/23 13:13:43

【YOLOv11】038、YOLOv11模型可视化:特征图、激活图、梯度可视化分析

从一次诡异的漏检说起 上周在部署YOLOv11到边缘设备时,遇到一个头疼的问题:白天检测正常的模型,到了傍晚总在固定区域漏检车辆。调高阈值?误检就上来了。加数据增强?效果不明显。最后决定把模型内部“扒开看看”——不是看输出结果,而是看中间层到底在“看”什么。这一看…

作者头像 李华
网站建设 2026/4/23 13:13:40

SAP RAR实战:手把手教你配置IFRS15收入确认五步法(含BRF+规则详解)

SAP RAR实战&#xff1a;IFRS15收入确认五步法深度配置指南 当企业面临新收入准则&#xff08;IFRS 15&#xff09;的实施挑战时&#xff0c;SAP RAR模块成为财务数字化转型的关键工具。本文将带您深入探索如何通过BRF规则引擎实现从销售订单到收入确认的全流程自动化处理&…

作者头像 李华
网站建设 2026/4/23 13:12:41

光子计算与矩阵向量乘法:LightPro架构的创新实践

1. 光子计算与矩阵向量乘法的技术背景在深度神经网络的计算过程中&#xff0c;矩阵向量乘法&#xff08;Matrix-Vector Multiplication, MVM&#xff09;占据了绝大部分的计算负载。传统电子计算架构在进行这类运算时面临着冯诺依曼瓶颈——即数据在处理器和存储器之间的频繁搬…

作者头像 李华