
最近半年,AI圈最火的词莫过于“Agent”,我们都梦想着能有一个AI智能体,像个任劳任怨的超级员工,能自主搞定各种复杂任务。但现实往往很骨感,我们花大价钱接入了大模型,精心调教了无数遍提示词(Prompt),结果发现手头的AI,大多数时候只算个“实习生”。
为什么会这样?
就在前几天,作为ChatGPT最强劲的对手,Anthropic公司的工程师团队发表了一篇万字长文《Effective context engineering for AI agents》翻译一下就是《AI 智能体的高效上下文工程》,给出了一个全新的答案。

这篇文章的核心思想可以概括为: 要想让AI从一个“聊天机器人”进化成能解决复杂问题的“AI员工”,关键已经不在于你发出的“指令”(Prompt)有多巧妙,而在于你为它准备的“工作资料包”(Context)有多么丰富、结构化和高效。文章详细阐述了如何通过提供背景文档、参考案例、专用工具和清晰的指令结构,来系统性地构建AI的“上下文”,从而将其打造成真正可用的AI智能体(Agent)。
简单来说,答案就是:你不能只懂得给AI“发指令”,还要学会给AI“递卷宗”。
这背后隐藏的,就是企业AI应用的下一个进阶能力——上下文工程(Context Engineering)构建。
先讲讲“提示词工程”与“上下文工程”的本质区别
让我们用一个IT人非常熟悉的场景来打个比方:
你现在是项目经理,要给一个新来的程序员小王分配任务。
提示词工程(Prompt Engineering)下的场景是这样的:
你走到小王工位前,口头说了一句:“小王,你去把用户登录模块的那个Bug修一下。”
这就是提示词工程。你给出了一个核心的、精炼的指令。这个指令的好坏(是否清晰、无歧义)决定了小王的工作效率。如果你的要求到位(提示词写得好),小王可能很快就找到问题;如果要求模糊(提示词写得不好),他可能要来回问你好几次。
但无论你的指令多么精妙,小王依然只是个“实习生”。 他不知道这个Bug的紧急程度,不知道它影响了哪些付费客户,不知道相关代码是谁写的,更不知道修复它可能会对其他模块产生什么连锁反应。他只能就事论事,机械地执行。这样做不犯错才怪。
上下文工程(Context Engineering)下的场景是这样的:
你把小王叫到会议室,递给他一个文件夹(一份“卷宗”),里面包含了:任务描述:修复用户登录模块的Bug。问题背景:这是上周五“V3.2版本紧急修复”任务的一部分,附上相关的Jira工单链接。关键信息:这里有三份客户的投诉邮件,都明确提到了这个Bug导致他们无法下单,其中最大的一家是我们的VIP客户“环球集团”。相关文档:这是登录模块最新的技术架构图和代码负责人“李工”的联系方式。行动指南:请在今天下午3点前完成修复,并优先在测试环境部署,通知QA团队的张姐进行回归测试。修复后,请生成一份报告,说明Bug原因和解决方案。
这就是上下文工程。你不再只是给出一个孤零零的指令,而是为AI构建了一个完整的、动态的、结构化的信息环境。
看到这里就应该明白它俩的区别了,让我们再简单总结一下:
提示词工程,是在优化你对AI说的那“一句话”,追求的是“指令”本身的结构和艺术。
上下文工程,则是在系统性地管理和组织AI执行任务所需的所有“背景材料”,追求的是“环境”的构建。
一个优秀的AI Agent,就像一个经验丰富的专家,他不仅能听懂你的话,更能快速调阅和理解所有的相关“卷宗”,从而做出精准、高效的判断和行动。
AI Agent的“武装指南”:三招让你的AI从“实习生”变“专家”
光搞懂概念还不够,我们IT人最关心的是“How”。Anthropic的文章详细介绍了如何通过上下文工程把一个基础模型,武装成能打硬仗的Agent。那么光说不练非君子,到底我们怎么才能掌握并运用好这项新技能?接下来我给大家提炼出最核心、最实用的三招,各位看官请接招:
第一招:给信息“划重点”——用好结构化标签
想象一下,你扔给AI一堆乱糟糟的文字,就像把一沓未经整理的文件扔给实习生,他会立刻晕头转向,分不清哪个是指令,哪个是参考资料。
上下文工程的第一步,就是给信息做结构化整理。 Anthropic强烈推荐使用类似XML的标签,把不同类型的信息清晰地包起来。
举个例子:开发一个客服AI,用于解答产品问题。
【改造前】糟糕的上下文:
你的任务是回答用户关于“X1”笔记本电脑的问题。这是产品手册:X1采用最新的M3 Pro芯片,14英寸视网膜屏幕,续航18小时,售价9999元。这是用户的历史订单:用户上个月购买了X1。这是用户的提问:这电脑能玩《赛博朋克2077》吗?请根据以上信息回答。
这种“一锅烩”的方式,AI很容易混淆信息的主次。
【改造后】使用结构化标签的上下文:
<XML>通过 <instructions> 、 <documents> 、 <question> 这些标签,AI能瞬间明白:它的角色和任务是什么(instructions )。哪些是权威的知识库( documents )。需要解决的具体问题是什么(question)。
这就像给实习生一个结构清晰的Jira工单,所有背景信息、需求文档、测试用例都分门别类,他拿到就能干活,效率极高。
第二招:不仅给答案,更要给“解题思路”的高质量范例
如果你想让实习生学会写出高质量的代码,最好的方法不是给他看100页的《代码规范》,而是给他看一个大神提交的、堪称典范的Pull Request。
对AI也是一样。在上下文中提供几个高质量的“范例”,尤其是包含“思考过程”的范例,能让AI迅速学会你的工作模式和思维方式。这就是所谓的“思维链”。
举个例子:让AI Agent根据客户邮件,判断投诉等级并提取关键信息。
【改造前】只给指令:
请阅读以下客户邮件,判断其投诉等级(高/中/低),并提取客户姓名和问题摘要。邮件:“你好,我是张三,我上周买的打印机一直卡纸,严重影响了我们办公室的工作,你们到底能不能解决?!”
AI可能会输出,也可能输出格式不统一,或者等级判断不准。
【改造后】提供一个带“思维链”的范例:
<XML>效果立竿见影!
AI看到了一个完整的“解题样本”,它不仅知道了最终要输出什么格式(JSON),更重要的是,它学会了如何一步步思考( <thinking> 标签内的内容)。它会模仿这个思路去分析新邮件:
情绪分析:客户用了“严重影响”、“到底能不能解决”等词,情绪激烈。
业务影响:影响了“办公室工作”,属于企业级应用场景,影响较大。
综合判断:情绪激烈 + 业务影响大 = 投诉等级“高”。
信息提取:姓名“张三”,问题“打印机卡纸影响办公”。
这样一来,AI的判断就变得非常精准和稳定,真正像一个有经验的服务经理在思考。
第三招:别让AI猜,给它工具箱——工具使用(Tool Use)
最强的专家也不是万能的,他会使用工具。一个财务专家需要用计算器,一个程序员需要用编译器,一个医生需要用听诊器。
让AI Agent处理企业任务时,最忌讳的就是让它基于自己可能已经过时的内部知识去猜测。正确的做法是,给它调用外部工具的“超能力”。
举个例子:一个销售AI,需要回答客户关于产品库存和价格的询问。
【改造前】把数据塞进上下文:
...这是我们最新的库存清单(一个1000行的Excel表格内容)...这是我们最新的价格表...客户问:“你们的‘蓝光鼠标’还有50个吗?现在下单多少钱?”
这种方法笨重、低效,而且信息一旦更新,整个上下文就都作废了。
【改造后】给AI提供API工具:
<XML>AI的工作流将变为:
解析任务:AI读懂了用户的问题,发现需要查询“库存”和“价格”。
匹配工具:它在自己的“工具箱”<tools>里找到了query_stock 和get_price两个工具。
调用工具:AI在后台执行:query_stock(product_name="蓝光鼠标") ,系统返回:{"stock": 120} 。AI在后台执行:get_price(product_name="蓝光鼠标" ,系统返回:{"price": 199.00} 。
整合答案:AI拿到准确、实时的工具返回结果,然后生成对用户的回答:“您好!‘蓝光鼠标’目前库存充足,有120个。现在的价格是199元一个。请问您需要下单吗?”
通过这种方式,AI Agent真正与企业的业务系统连接了起来,它不再是一个封闭的知识大脑,而是一个能够实时与外部世界交互的行动者。
通过这三招——用标签构建清晰的任务蓝图、用范例提供标准的解题思路、用工具赋予实时的行动能力——我们就能把一个泛泛而谈的AI模型,系统性地打造成一个能够精准、高效、可靠地完成企业级任务的AI Agent了。这,就是上下文工程的实践魅力。它不是玄学,而是一套可以学习、可以操作、可以优化的工程方法论。
上下文工程对企业AI开发意味着什么?
对企业来讲,上下文工程就是为AI打造一套高效的“卷宗管理系统”。这套系统,将从根本上改变我们开发和应用AI的方式。
1. 从“API调用”到“AI原生”的架构变革
过去,我们开发AI应用,思路很简单:前端应用 → 调用大模型API → 返回结果。AI只是一个被动的功能模块。
但在上下文工程的框架下,AI成为了系统的核心。我们需要为它构建一个“上下文供给层(Context Supply Layer)”。这个层需要连接企业内部的各种数据源:如,实时数据流,包括连接ERP的库存数据、CRM的客户动态数据等;又如:知识库/文档库,包括接入公司的SOP手册、产品说明、历史项目文档、合规条例等;还有动态记忆库,比如与特定用户交互的历史信息。
未来的AI应用开发,重点将不再是写几个巧妙的Prompt,而是如何设计和维护这个高效、安全、低延迟的“上下文供给层”。这要求我们的IT架构师必须具备“AI原生”的思维。
2. 知识管理从“存储”走向“激活”
我们很多企业都花大价钱做了知识管理系统,但结果往往是变成了一个数字化的档案馆,文件躺在里面睡大觉,无人问津。
而上下文工程,有可能就是激活这些沉睡知识的最佳途径!想象一下:一个新员工入职,AI Agent自动将所有相关的SOP、培训视频、历史邮件作为“上下文”整理好,并随时解答他在这些“卷宗”里遇到的任何问题。所以,知识将不再是人去费劲检索才能得到的东西,而是围绕着具体的任务目标被AI自动组织和激活的“燃料”!
3. “人机协同”的范式升级
上下文工程让AI不再是一个黑盒。我们以后可以通过设计不同的“上下文模板(Context Templates)”来精确控制AI的行为。
例如,处理初级客户投诉,可以只给AI提供标准的SOP文档;而处理VIP客户的紧急故障,则可以动态地将公司资深CTO的技术文章、过往最成功的危机处理案例等高级“卷宗”一并提供给AI。
这意味着,人不再是只是AI的命令者,而是AI的知识供给者和引导者。我们的工作,将变成像导演一样,为不同的场景,设计不同的“剧本”(上下文),让AI这位“演员”能发挥出最佳表现。
写在最后:留给我们的深刻思考
Anthropic的文章为我们揭开了AI Agent真正走向实用的冰山一角。它让我们兴奋,也让我们必须冷静思考随之而来的挑战。
上下文的“真理”与“偏见”:如果我们喂给AI的“卷宗”(上下文)本身就包含了过时的信息、错误的流程,甚至是企业内部某些部门的偏见,AI Agent会不会成为一个固化甚至放大这些错误的“超级执行者”?我们该如何建立一套“上下文的审计机制”?
“上下文能力”是否会成为新的技术壁垒?:当AI模型本身逐渐商品化、同质化之后,一家企业所拥有的独特、高质量、结构化的“上下文数据”,是否会成为其最核心的、最难被复制的AI竞争力?
人类专家的价值重定义:当一个AI Agent能够瞬间“阅读”完整个公司的项目文档、财务报告和技术手册,那么人类专家的价值在哪里?
安全与边界的挑战:上下文工程意味着AI需要接入企业最核心、最敏感的数据。我们该如何设计权限和边界?
从“提示词”到“上下文”,这绝不仅仅是一次技术术语的升级,它预示着一场企业智能化应用的深刻变革。各位身处一线的数字化同仁们,你们准备好迎接这个“上下文工程”的新时代了吗?
好了,今天的分享就到这里。您有什么看法?欢迎在评论区留言。最后,别忘了关注(公众号:数智转型架构师)、点赞,并分享给更多需要的人!