大家好,我是玄姐。
以下是决定 AI 应用输出质量的大致占比:
模型选择:15%
提示词设计:10%
其他所有因素(检索、记忆、工具、查询处理):75%
很多团队都在纠结那无关紧要的 25%,却忽视了真正的关键所在。这也正是 “上下文工程(Context Engineering)” 悄然成为当今 AI 应用工程领域最重要技能的原因。它是一门在正确的时间、以正确的格式,向模型提供正确信息的艺术。如下图所示,它包含六大核心组件:
1. 提示词技术(Prompting Techniques)
这是大多数人会停留的阶段,但即便如此,其深度也远超人们的认知。
传统提示词技术基于模式识别:你给模型提供示例,它就能学习你想要的格式、风格和逻辑。对于结构化任务,少样本提示词(Few-shot prompting)依然效果显著。
而高级提示词技术才是真正的亮点所在。
像思维链提示词(Chain-of-thought prompting)这样的技术,能给模型留出 “思考空间”。不直接要求模型给出答案,而是让它一步步推理,这个简单的改变能大幅提升复杂问题的求解准确率。
2. 查询增强(Query Augmentation)
用户在写查询时往往很 “懒惰”。
当有人输入 “我的 API 调用一直失败,该怎么解决?” 这样的问题时,对于检索系统来说几乎毫无用处。
查询增强通过多种技术解决这一问题:
查询增强技术 | 核心作用 |
|---|---|
查询重写(Query Rewriting) | 利用大语言模型(LLM)将模糊的问题转化为清晰、精准的表述(混乱→规整) |
查询扩展(Query Expansion) | 添加相关术语和同义词,扩大检索范围(拓宽搜索网) |
查询分解(Query Decomposition) | 将复杂问题拆分为可独立解答的子问题 |
查询智能体(Query Agents) | 利用智能体根据初始结果动态决定如何重新构建查询 |
示例:“API 调用失败怎么办?”→ 扩展为 “API 调用失败原因:认证问题、速率限制、超时、人工智能神经网络相关故障”
3. 长期记忆(Long-Term Memory)
假设一个代理和用户进行了一场愉快的对话,用户分享了自己的偏好、相关背景和历史信息,但会话结束后,这些信息就全部丢失了。
长期记忆通过外部存储解决这一问题:
向量数据库(Vector Databases):存储过往交互的嵌入向量,用于语义搜索。
图数据库(Graph Databases):以关系和实体的形式存储对话内容。
记忆的类型也至关重要:
情景记忆(Episodic memory):记录特定事件
语义记忆(Semantic memory):留存关于用户的通用事实
程序记忆(Procedural memory):记录用户偏好的操作方式
Mem0/Zep/MemOS/Cognee 等开源工具让这一切变得触手可及,你无需从零构建。
4. 短期记忆(Short-Term Memory)
短期记忆本质上就是对话历史。这一点看似显而易见,但往往管理不当。很多团队会在以下方面出错:
向上下文窗口中塞入过多信息(噪音掩盖信号)
信息包含不足(模型缺乏关键数据)
排序不合理(重要上下文被埋在末尾)
对长对话没有总结策略
5. 知识库检索(Knowledge Base Retrieval)
大多数团队会将其等同于检索增强生成(RAG),但这过于狭隘了。RAG 只是其中一种模式,而非全部。
真正的核心问题是:如何将你的 AI 与企业数据连接起来?
这些知识分散在各个角落:文档、维基百科、数据库、Notion 和 Google Drive 等 SaaS 工具、API 以及代码仓库 等等。
检索流水线包含三个层面:
检索前(Pre-Retrieval):如何拆分文档?保留哪些元数据?如何处理表格和结构化数据?如何保持所有信息同步?
检索中(Retrieval):选择哪种嵌入模型?采用何种检索策略(向量搜索或结合 BM25 的混合搜索)?如何重新排序结果?
增强(Augmentation):如何格式化检索到的上下文?如何包含引用来源?如何处理矛盾信息?
Airweave 等开源工具提供了端到端的解决方案。无需为每个数据源构建自定义连接器,你只需同步知识库,就能统一访问 Notion、Google Drive、数据库等各类数据。
传统 RAG 流水线 | 智能体驱动的上下文工程 |
|---|---|
硬编码的索引和检索流程 | 为智能体打造的双时间语义知识层 |
查询 → 数据源 A 连接器 → 向量 → 向量数据库 → 上下文 → 最终响应 | 查询 → Airweave → 关键词扩展 + 向量 → Airweave 向量数据库 → 重新排序 → 上下文 → 最终响应 |
(需为数据源 B、C 重复构建连接器) | (统一对接所有数据源) |
无需更换模型,只需优化文档拆分策略或妥善同步知识来源,检索质量就能提升 10 倍。
6. 工具与智能体(Tools and Agents)
工具能拓展模型的能力边界,如果没有工具,模型只能依赖自身权重和上下文窗口中的信息。
而智能体则负责决定何时以及如何使用这些工具。
智能体基本工作流程如下:查询 → 思考 → 行动 → 观察 →(重复直至达成目标)→ 响应
单智能体架构(Single-agent architecture):适用于简单任务,大多数聊天机器人和辅助工具都属于这一类。
多智能体架构(Multi-agent architecture):更适合复杂工作流。由多个专业智能体协作完成,例如一个负责调研、一个负责撰写、一个负责审核,它们之间相互协作、移交工作。
智能体通信协议(MCPs)则将这一模式推向了新高度!
智能体通信协议(MCP)的强大之处:
传统工具集成需要建立 N×M 个连接点:如果有 3 个模型和 4 个工具,就需要 12 个集成点。
而 MCP 将其简化为 N+M 个连接点,模型和工具都只需对接一个标准协议层。
核心洞察
曾经,提示词工程让人们误以为 “魔法” 在于编写完美的指令。
而上下文工程则揭示了真正的 “魔法” 在于整个信息流水线:
你提供什么样的上下文?
这些上下文来自哪里?
如何检索、筛选和格式化这些上下文?
模型能通过工具完成哪些操作?
它能跨会话记住哪些信息?
我们制作的可视化图表详细拆解了今天讨论的六大组件:
如果你在 2026 年构建 AI 应用,这正是你需要的核心思维框架。
好了,这就是我今天想分享的内容。如果你对构建企业级 AI 原生应用新架构设计和落地实践感兴趣,别忘了点赞、关注噢~
—1—
加我微信
扫码加我👇有很多不方便公开发公众号的我会直接分享在朋友圈,欢迎你扫码加我个人微信来看👇
加星标★,不错过每一次更新!
⬇戳”阅读原文“,立即预约!