微信扫码
添加专属顾问
我要投稿
Anthropic官方揭秘:如何为充满不确定性的AI智能体设计高效工具?掌握这套方法,让你的智能体不再"罢工"。 核心内容: 1. 智能体工具设计的重要性与独特挑战 2. Anthropic提出的原型-评估-优化三步方法论 3. 实际案例展示高质量工具设计的关键指标
在过去几十年里,软件开发的底层逻辑一直没变:函数是确定的,调用是可靠的,系统是可控的。
这种“稳定性”造成的效果就是:输入确定,输出唯一,行为透明。
但自从大模型(LLM)和智能体(AI Agent)登上舞台,这条铁律就被彻底打破了。
智能体更像是一个“拥有主观能动性”的协作者,它可能选择调用工具,也可能不调用;可能理解指令,也可能误解语境;甚至同样的输入,今天和明天都可能给出完全不同的结果。
那么,问题来了,如果智能体本身就是“不确定性的”,那我们该如何为它设计“确定性”的工具?
Anthropic 研究团队最近分享了一套系统方法论,今天这篇文章就从工程实践角度出发,深度拆解。
智能体强,就强在工具。
大模型本身的能力是很有限的,只能依赖训练数据概率输出。
比如它不能联网搜索实时信息、不能查询天气、不能发邮件。
这时候就需要给 AI 模型配备各种“工具”(Tools)。
举个例子,当你问一个配备了联网工具的智能体“今天需要带伞吗?”,它可能会:
划重点:智能体(AI Agent)的能力上限,很大程度上取决于我们给它配备的工具质量。
工具设计得好,智能体就能高效完成任务;设计得不好,它可能会绕弯路,甚至直接罢工。
如果说传统软件是确定性系统之间的契约(比如输入 A 永远得到输出 B),那么工具就是确定性系统与非确定性智能体之间的契约。
这也意味着我们需要用完全不同的思路来为智能体设计工具。
核心流程:原型 -> 评估 -> 优化
Anthropic 分享的工具设计方法,和软件开发(尤其是 AI 时代的开发)非常类似。
先别想太多,快速实现一个能用的版本。
以现阶段 AI 的能力,给定相关的库、APIs、SDKs 文档,很快就能生成一个基础版本。
这是整个方法的核心。
你需要运行评估来衡量这个工具的效果。
高质量任务示例:
Schedule a meeting with Jane next week to discuss our latest Acme Corp project. Attach the notes from our last project planning meeting and reserve a conference room.
低质量任务示例(过于简单):
Schedule a meeting with [email protected] next week.
主要差别在于:高质量任务更接近真实场景,需要多个工具配合,能测试出工具的真正表现。
以彼之矛,攻彼之盾。
这是最有意思的部分,值得借鉴。
把评估结果,包括失败案例、智能体的思考过程,全部投喂给 AI 工具,让它来分析问题并优化工具。
根据 Anthropic 的统计数据,经过 Claude Code 优化后的 Slack 工具性能提升了约 15%,Asana 工具提升了约 20%。还蛮可观的提升幅度。
AI 时代,用 AI,来优化 AI。
接下来聊几个智能体工具设计原则。
工具并不是越多越好。
而是,越合适越好。
以在通讯录中搜索联系人这一任务为例。
list_all_contacts() 返回所有联系人search_contacts(name="张三") 直接搜索原因很简单,智能体的上下文长度有限,返回太多无关信息会浪费 Token,降低效率。
当工具多了之后,清晰的命名变得很重要。
asana_projects_search()
asana_users_search()
jira_projects_search()
jira_users_search()
这种工具命名方式能帮助智能体快速理解每个工具的用途和边界,降低调用出错的风险。
Anthropic 的测试显示,仅仅是把 UUID 改成更有意义的标识符,就能显著减少智能体的出错率。
智能体的上下文是有成本的,每个 Token 都是算力,都是钱。
所以,优化工具返回给智能体的信息量就变得很重要。
不是返回越多信息越好,而是返回“刚刚好”的信息,既满足需求,又不浪费上下文。
具体来说,可以这样操作。
据 Anthropic 表示,这是工具优化最有效的方法之一。
工具描述和规范就像是给新员工写的操作手册,会被默认带入上下文,引导智能体调用合适的工具。
如果你也想尝试这套方法,建议从小处着手。
先针对一个具体使用场景设计工具,比如“自动整理会议纪要”或“批量处理客户工单”,不要一上来就想做个“大而全”的万能助手。
评估标准很重要。你需要建立起一套评估机制,像运行单元测试一样定期评估工具性能。
即使只有 10 个测试用例,也能帮你发现大部分问题。
更重要的是制定统一的工具设计规范,命名、传参、错误返回,小细节会直接影响智能体的整体表现。
回到开头那个悖论,我们该如何为“不确定”的智能体,设计“确定”的工具?
Anthropic 的答案是 —— 既然无法消除不确定性,那就拥抱它。
让 AI 参与到工具的设计和优化中来,用智能体的视角,理解智能体的工作方式。
这有点像“套娃”,用工具来改进工具本身。
当然,这套方法也有局限性。
它更适合有明确任务边界的场景,对于开放的创造性任务可能效果有限。
但从更大的视角来看,它指向的,或许是一种新的开发范式,是一次思维方式的重塑。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-10-30
Cursor 2.0的一些有趣的新特性
2025-10-30
Anthropic 发布最新研究:LLM 展现初步自省迹象
2025-10-30
让Agent系统更聪明之前,先让它能被信任
2025-10-30
Rag不行?谷歌DeepMind同款,文档阅读新助手:ReadAgent
2025-10-29
4大阶段,10个步骤,助你高效构建企业级智能体(Agent)
2025-10-29
DocReward:让智能体“写得更专业”的文档奖励模型
2025-10-29
沃尔沃RAG实战:企业级知识库,早就该放弃小分块策略
2025-10-29
大模型的Funcation Calling是什么?
2025-08-21
2025-08-21
2025-08-19
2025-09-16
2025-10-02
2025-09-08
2025-09-17
2025-08-19
2025-09-29
2025-08-20
2025-10-29
2025-10-29
2025-10-28
2025-10-28
2025-10-27
2025-10-26
2025-10-25
2025-10-23