微信扫码
添加专属顾问
我要投稿
企业AI的瓶颈并非模型本身,而是缺乏数据平台的实时语境,编排系统才是实现可靠AI的关键。核心内容: 1. AI代理失败的根本原因:缺乏数据平台运营语境 2. 编排系统如何提供实时运营记录解决语境缺失问题 3. 在严格监管行业中对可信赖AI的迫切需求
AI代理因缺乏数据平台运行语境而失败,导致幻觉。编排系统提供血缘、健康等运营记录,是AI可靠性的关键。将编排作为共享语境引擎,可实现准确、可解释的AI。
译自:The Real Bottleneck in Enterprise AI Isn't the Model, It's Context[1]
作者:Julian LaNeve
每个人都在争相推出用于数据工作的AI代理。他们希望这些代理能够编写SQL、调试管道、生成测试、自动记录资产并按需提供洞察。这几乎让人感觉数据工程师们一直期待的自助式分析承诺终于实现了。
不幸的是,这些部署正在失败,仅仅是因为代理不了解数据[2]平台实际的运作方式。他们不知道哪些表值得信任,管道是否不稳定,或者谁拥有什么。他们无法追溯一个领域中的模式更改如何破坏其他地方的仪表板、模型和指标。
因此,它们会幻觉[3]。它们查询陈旧或已废弃的资产,针对错误的来源进行优化,并给高管们提供措辞优美但系统性错误的答案。
这就是我所说的语境墙:AI能够生成的内容与它在生产现实中能够可靠地建立联系之间的坚硬边界。语境墙[4]正迫使人们将焦点从华丽的界面转向底层的基础设施层,因为真正的智能已经存在于那里。
大多数企业AI策略仍然将语境视为事后才考虑的问题。一个大型语言模型(LLM)[5]被置于数据仓库之上。也许有一个目录,或者内部文档被索引并连接到检索增强生成(RAG)[6]中。从理论上讲,代理拥有模式和描述。但实际上,它几乎没有运营真相的感知。
代理不知道昨晚的工作是否失败,表名是否正在退役,或者财务部门是否信任某个特定的精选表进行结算。它无法判断上游未能履约的服务等级协议(SLA)是否应该使五个下游仪表板失效。
没有实时的运营语境,AI代理就变成了不完整元数据之上的花哨UI。它们适用于演示,但对于与收入、风险或法规相关的决策来说是危险的。
如果我们想要能够嵌入关键工作流的代理,它们就不能是盲目的副驾驶。它们需要持续地、而不仅仅是在设计时,了解数据是如何生产、验证、移动和消费的。
每次管道运行、失败、重试、通过测试或违反SLA时,编排系统都会记录下来。随着时间的推移,这变成了一个包含湖、仓库、流和应用程序中血缘、健康、所有权和使用情况的完整运营记录,而不仅仅是一个系统[7]。
这使得编排元数据成为整个数据平台的实际“飞行记录器”,它提供:
这种宏观图景正是当今大多数AI代理所缺失的。
在更复杂和受到严格监管的环境中,这成为一个主要差距。金融服务、医疗保健、关键基础设施、公共部门以及气隙或远程部署都需要可证明的血缘、强大的控制和可解释性。在这些环境中,编排是事实的来源,使得可信赖的AI成为可能。
一个AI原生数据平台并非始于聊天机器人。它始于将编排转化为人与代理共同的语境引擎[8]。让我们比较两个代理。
代理A只连接到仓库和目录。它能看到模式、名称和陈旧文档,但无法区分好坏。它会愉快地在损坏的管道之上生成SQL,并对此讲一个精彩的故事。
代理B以编排为基础。在推荐或查询表格之前,它会检查运行历史、测试结果、SLA、血缘和下游重要性。它默认选择健康、受治理和有所有权的资产,并能解释其选择。如果一个关键任务失败,它知道应该标记或暂停哪些指标、仪表板和AI工作流。
一旦编排智能成为基础,新功能便会自然而然地显现:
这就是“AI原生”在这里的真正含义。它是AI,生于平台内部的运营之中,而非附加其上。
企业AI的真正瓶颈不再是模型。而是缺乏扎实的语境。
将编排遥测视为战略性资产,并将其对血缘、健康、所有权和使用情况的视图作为共享语境层暴露出来,是AI变得可靠的方式。随着更多工作移交给代理,从一开始就嵌入这种语境的系统,将是在生产中保持准确、可解释和安全的系统。
让你的AI理解数据平台如何真正运行,可以将其从演示状态提升到成为核心堆栈的一部分。
[1] The Real Bottleneck in Enterprise AI Isn't the Model, It's Context:https://thenewstack.io/the-real-bottleneck-in-enterprise-ai-isnt-the-model-its-context/[2]代理不了解数据:https://thenewstack.io/ai-Agents-must-learn-from-chatgpts-data-wrongs/[3]幻觉:https://thenewstack.io/how-to-reduce-the-hallucinations-from-large-language-models/[4]语境墙:https://thenewstack.io/context-engineering-going-beyond-prompt-engineering-and-rag/[5]大型语言模型(LLM):https://roadmap.sh/guides/introduction-to-llms[6]检索增强生成(RAG):https://thenewstack.io/reduce-ai-hallucinations-with-retrieval-augmented-generation/[7]而不仅仅是一个系统:https://thenewstack.io/ai-agents-in-legacy-systems-the-problem-no-one-talks-about/[8]人与代理共同的语境引擎:https://thenewstack.io/context-engineering-the-foundation-for-reliable-ai-agents/
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-12-17
从 1600+ 份 Word 文档到生产级 RAG:一个工控行业知识库的全链路实战复盘
2025-12-16
短语检索不等于BM25+向量检索| Milvus Phrase Match实战
2025-12-16
让AI真正懂数据:猫超Matra项目中的AI知识库建设之路
2025-12-10
最新力作:一招提升RAG检索精度20%
2025-12-10
Apple 入局 RAG:深度解析 CLaRa 框架,如何实现 128x 文档语义压缩?
2025-12-09
客服、代码、法律场景适配:Milvus Ngram Index如何百倍优化LIKE查询| Milvus Week
2025-12-09
一键把碎片变成有料笔记:NoteGen,一款跨平台的 Markdown 笔记应用
2025-12-07
Embedding模型选型思路:相似度高不再代表检索准确(文末附实战指南)
2025-10-04
2025-10-11
2025-09-30
2025-10-12
2025-12-04
2025-11-04
2025-10-31
2025-11-13
2025-10-12
2025-12-03
2025-12-10
2025-11-23
2025-11-20
2025-11-19
2025-11-04
2025-10-04
2025-09-30
2025-09-10