免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

治理之智 | OpenClaw类自主智能体的分层治理(下)

发布日期:2026-05-15 15:22:04 浏览次数: 1512
作者:阿里研究院

微信搜一搜,关注“阿里研究院”

推荐语

OpenClaw类自主智能体如何安全发展?本文通过“本体—交互—生态”分层治理方案,为智能体提供可迭代的安全保障体系。

核心内容:
1. 智能体本体层治理:聚焦意图编排、行为边界与模型约束
2. 智能体交互层治理:探讨人机协作与风险控制机制
3. 智能体生态层治理:分析系统级风险与协同治理框架

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

导语:

人工智能正经历从“生成式对话助手”向“自主执行智能体”的范式转型,新的风险特征对安全治理带来新的挑战。面对智能体能力的非线性扩张,单纯依赖事前预判和准入限制,或采取事后修补的被动式监管路径,都无法准确识别和及时管控风险。基于实现能力与规制同步演进的敏捷治理思路,应穿透风险的外观,根据智能体能力与风险的伴生性原理,通过“本体—交互—生态”的风险分层治理方案,对智能体本体层、交互层、生态层三个层面的核心能力与伴生风险进行解析,并在每一层面提出对应的治理策略,为智能体发展提供可操作、可迭代的安全保障体系。


上篇我们对智能体风险治理的风险特征进行了详细分析,并提出分层治理的基本结构(详见OpenClaw类自主智能体的分层治理(上)),下篇我们将聚焦各层具体的治理路径和方案。



三、本体层治理:意图编排、行为边界与软硬结合的模型约束
















(一)核心功能:复杂意图识别与长序自动化编排


自主智能体的本体层核心能力首先体现在对复杂、模糊人类意图的精准语义解析与结构化目标的拆解上。以OpenClaw的科研文献检索与综述撰写功能为例,当用户输入”帮我整理过去三年关于大语言模型推理能力的最新研究进展,并按方法论分类撰写一份系统性综述”这一高阶指令时,系统通过多轮内部推理,将其分解为数据库检索策略制定、文献质量筛选、主题聚类分析、结构化写作等十余个具体可执行步骤,并在无人工干预的条件下自主推进任务流转。这一”意图编排”能力的实现依赖于大语言模型的深层语义理解能力、任务规划模块的树状目标分解算法以及执行层对多工具并行调度的统一协调机制。意图编排能力的另一维度体现在对跨时间序列的上下文的连贯性管理(即长期记忆)上。通过集成向量数据库,智能体实现了对用户偏好、历史任务记录与个性化工作习惯的持久化存储,在用户再次发起任务时能够自动检索相关历史记忆,实现专属化的上下文注入。长期记忆机制能够赋予智能体个性化与效率上的显著优势,也将其推向了传统对话系统未曾触及的能力边界,系统由此具备了在超越单次对话的更长时间跨度上,对用户信息偏好、行为模式与价值取向进行建模的能力。


(二)伴生风险:自主决策失控与行为边界穿透


本体层能力的质变直接触发了风险形态的质变。传统语言模型的失范后果主要局限于信息层面,但自主智能体一旦将意图编排与工具调用结合,错误决策便可直接转化为现实世界中的操作后果。风险穿透的典型路径包括三类:目标漂移,即任务执行中途因上下文理解偏差而发生目标替换,例如”删除冗余文件”被错误扩展为大范围数据清除;过度授权执行,即智能体按最优路径原则自主选择了超越用户预期的高影响操作;级联错误,即在多步骤任务中,早期决策错误未被纠偏而在后续执行中被持续放大。长期记忆机制还引入了一类独特的攻击面:记忆投毒(Memory Poisoning)。攻击者可通过精心设计的内容,在用户不知情的情况下向向量数据库写入虚假或恶意的历史记忆,从而在未来的任务执行中触发对用户初始意图的系统性偏离。记忆投毒的危险性在于其极强的隐蔽性与延迟性,被污染的记忆不会立刻显示出明显异常,而是以个性化服务的形式潜伏,在特定任务触发时才产生影响,届时进行溯源分析将极为困难。


(三)治理路径:软硬结合的模型行为约束


本体层的治理逻辑遵循”双轨并行”原则。软约束着眼于模型本身的价值规训,通过训练阶段的行为内嵌使安全性成为模型的内生属性;硬约束着眼于执行系统的物理隔离,通过独立于主推理路径的机制实现对高危行为的强制拦截。两条轨道各司其职,相互补充,共同构成可信智能体系统的本体层防线。


其一,软约束的核心理念是将安全边界内化为模型的行为偏好,而非依赖外部规则的事后纠偏。这一思路最具代表性的实践是”模型规范”(Model Spec)机制。模型规范将价值约束前置至训练阶段:通过在基于人类反馈的强化学习(RLHF)流程中引入明确的原则约束体系,模型在自我评估与优化过程中将潜在有害行为标注为负样本,从而在推理层形成对高风险行为的内生性规避倾向。模型规范机制的核心价值在于,它为软约束的工业落地提供了一条自下而上的实现路径,即从底层模型的价值内嵌出发,逐层向上延伸至系统级行为约束,最终形成覆盖模型训练、推理决策与任务执行全链路的安全保障体系。这一自下而上的思路意味着,安全性并非作为外部附加的监管要求被强制叠加于系统之上,而是从模型的基础能力层开始,通过价值对齐与行为偏好的内化,使安全成为智能体系统的内生属性。以安索普里克公司(Anthropic) 公司的模型规约为例,其框架将行为约束划分为四个权限层级,分别是广泛安全(Broadly Safe)、广泛合伦理(Broadly Ethical) 、遵循An-thropic指南(Follow Anthropic’s Guidelines) 与真正有帮助(Genuinely Helpful)。当不同价值发生冲突时,该公司的模型被训练按上述顺序进行优先级判断。这一分层结构清晰地划定了”什么是绝对不可为”与”什么可以因场景灵活调整”之间的界限,在保障安全底线的同时能够为应用创新留足空间。在智能体场景下,模型规范的价值还体现在对行为帮助性与安全性之间张力的精细化处理。帮助性准则明确了模型应如何在维护清晰人机边界的前提下展现人本关怀,避免干预或替代用户的现实决策,从而在能力层面为智能体的自主执行倾向设置价值层面的内生制动。软约束的另一重要维度是建立行为外层护栏。在模型规范框架之上,系统设计者应在系统级提示词中嵌入明确的任务边界声明,要求智能体在启动高影响操作前主动向用户确认并建立”行为许可白名单”机制,只有在白名单范围内的操作才能自主执行,超出范围的操作需强制触发确认流程。


其二,硬约束是软约束的必要补充。软约束依赖模型自身的价值判断,其可靠性终究受限于模型推理的能力。对于高危操作场景,必须建立独立于主推理路径的硬约束防线,确保即便模型判断出现偏差,也有外部机制能够在行为发生前实施物理拦截。硬约束包括权限管控、安全验证和环境控制等方面。(1)权限管控是硬约束的基础。智能体系统在操作系统层面不应以管理员权限运行;在文件系统层面,只授予完成当前任务所需的最窄目录访问范围;在网络层面,建立出站请求白名单,阻断与任务无关的外部通信。典型事故中邮件被大量删除的根因之一,正是系统以过于宽泛的邮件访问权限运行,使得目标漂移发生后无法在权限层自然止损。(2)在权限管控的基础上,还需要建立独立的行为安全验证机制。应在智能体的工具调用链路上设置独立的安全验证模块,依据预定义的规则库对即将触发的高危动作进行实时拦截。该模块的关键设计要求是应具备独立性,即应作为独立进程运行,而非集成在主智能体进程内,以防止主模型通过内部推理绕过安全检查。典型拦截规则包括:禁止执行涉及用户个人数据的批量删除操作;禁止在未明确用户确认的情况下发送外部通信;禁止修改系统级配置文件等。(3)进一步引人环境控制机制。应建立基于行为异常检测的执行熔断机制。当系统检测到智能体的累计操作超过预设阈值,例如在极短时间内发起大量跨系统写操作、网络请求数量异常激增,或资源占用呈现非正常增长模式时,应自动触发执行暂停,将智能体进程冻结在当前状态,并上报人工审核队列。在容器化部署场景下,可通过资源限制机制实现对进程资源消耗的硬性上限控制;在云端部署场景下,则可通过云服务商的资源配额与费率熔断机制提供额外保障。


















四、交互层治理:外部资源调用能力与协议安全加固

















(一)核心功能:跨越数字系统鸿沟的工具调用


意图编排构成智能体的认知决策核心,而工具调用能力则承担着连接智能体与外部环境的关键功能。当前,工具调用能力的实现主要依托两项核心协议,即模型上下文协议(MCP)与智能体间协同协议(A2A)。(1) MCP(Model Context Protocol,模型上下文协议)由安索普里克公司(Anthropic)于2024年提出并主导制定,旨在通过统一的接口规范解决大语言模型与外部工具、数据源之间的互操作性问题。依据MCP(模型上下文协议),智能体可通过实时通信接口调取工具或检索数据,根据当前任务需求,动态地从工具注册表中选取并调用相应的能力模块。MCP(模型上下文协议)的核心价值在于将异构工具的调用从黑盒式临时集成转变为具有统一语义握手规范的结构化交互,显著降低智能体能力扩展的开发门槛。(2)A2A(Agent-to-Agent Proto-col,智能体间协同协议)由谷歌-深思公司(Google DeepMind)于2025年发布,其将工具调用的概念延伸至智能体之间的横向协作,支持多个专业化子智能体的并行调用与结果汇聚。A2A(智能体间协同协议)的功能特征在于支持机器间的高频自动化交互,主智能体可将复杂任务分解并委托给具有特定能力的子智能体,实现任务的并行处理与结果汇总。这一协议的推出标志着智能体从单体系统向多智能体协同系统的重要演进。


伴随着OpenClaw的快速发展,插件生态与技能工作流(Skills)开始涌现,进一步将智能体的能力边界延伸至由众多开发者贡献的长尾专业能力。准确理解智能体为何需要插件生态与技能工作流(Skills),需要从其功能定位出发。核心智能体系统提供通用的意图理解与任务编排能力,但面对高度垂直化的专业领域,如特定行业的财务分析逻辑、专业法律文书的格式规范、特定领域的术语处理标准,其通用能力往往难以达到专业水准。插件生态与技能工作流(Skills)的价值在于,它允许具备特定领域专业知识的开发者将自身的知识体系封装为可复用的工作流组件,供智能体在执行相关任务时调用。这一机制使得智能体的专业能力覆盖范围能够随着贡献者生态的扩大而持续扩展,而无须对核心系统进行频繁迭代。插件生态与技能工作流(Skills)的本质是将人类的专业判断力转化为智能体可调用的能力模块,从而在通用智能体基础上实现专业化能力的灵活叠加,显著拓展了智能体的任务交付能力。


插件生态与技能工作流(Skills)模式对于智能体能力体系的构建具有不可替代的结构性价值。从智能体的功能架构来看,智能体的核心系统提供通用的意图理解与任务编排能力,但这一通用能力在面对高度专业化的垂直领域任务时,往往难以独立达到可用的服务水准。插件生态与技能工作流(Skills)通过将垂直领域的专业知识、业务逻辑与专有数据封装为标准化的可调用组件,使智能体能够在不修改核心架构的前提下,按需获取特定领域的专业执行能力。这一机制的深层意义在于实现了智能体能力供给从”平台自建”向”生态众包”的范式转换,使智能体的专业能力覆盖范围能够随着贡献者生态的扩大而持续扩展。相关产业实践已经印证了这一模式的快速成熟与落地成效。以出行旅游领域为例,飞猪于2026年3月发布的技能插件”flyai”基于MCP(模型上下文协议)进行标准化封装后,可在数十个智能体应用上即装即用,无须开发者额外注册或申领接口密钥,其服务覆盖涵盖机票、酒店、门票、用车等出行全品类的搜索、咨询、规划及预订,横跨了从导购到交易的完整链条。这展示了插件生态与技能工作流(Skills)模式的三重价值:第一,降低能力接入门槛,使垂直领域的专业能力能够以极低的集成成本供智能体调用;第二,实现跨平台能力复用,一个插件生态与技能工作流(Skills)组件可同时服务于多个智能体平台,避免了重复开发的资源浪费;第三,推动智能体从通用工具向专业化服务网络的演进,为智能体商业生态的形成奠定技术基础。


(二)伴生风险:协议漏洞、权限失控与恶意技能注入


MCP(模型上下文协议)在早期设计时存在一个典型的安全缺陷,即对本地连接的默认信任假设。在标准部署场景下,运行于同一本地环境中的MCP(模型上下文协议)客户端与服务器之间的通信往往缺乏有效的身份验证机制,攻击者一旦在用户设备上获得有限权限,便可伪造MCP(模型上下文协议)请求,以智能体的身份向已信任的工具服务器发送恶意指令。这一漏洞的危险性在于其利用了”信任传递”逻辑,用户对智能体的授权信任被攻击者转化为对底层工具的非授权访问,可能导致数据泄露、配置篡改乃至整个基础设施被恶意接管。A2A(智能体间协同协议)的安全挑战则主要集中于多智能体协同场景中的身份伪造与资源滥用风险。恶意行为者可通过伪造合法子智能体的身份,向主智能体注入虚假的任务结果或操控指令;同时,多层嵌套的智能体调用链路如缺乏有效的资源配额控制,可能因任务死循环导致大量资源消耗。开放插件生态以及插件生态与技能工作流(Skills)市场的快速扩张在带来能力红利的同时,形成了一类新型攻击面,即恶意技能注入(Malicious Skills Injection)。其威胁模型可归纳为三类:(1)恶意插件生态与技能工作流(Skills)伪装,即静默收集用户敏感数据的看似合法工作流组件;(2)合法插件生态与技能工作流(Skills)劫持,即通过账户入侵或仿冒名称方式注入恶意代码:(3)依赖链污染,即通过污染底层依赖组件间接渗透众多插件生态与技能工作流(Skills)。与普通安全事件相比,恶意插件生态与技能工作流(Skills)的额外危害在于被感染的组件还能向模型注入虚假信息,直接操纵智能体的决策上下文。这一特征使其危害程度远超普通的数据窃取工具。


(三)治理路径:零信任架构、技术网关与可信插件生态与技能工作流(Skills)生态


针对交互层的安全挑战,治理路径围绕三个层面展开,分别是协议层的权限默认关闭与零信任架构、技术网关的主动防御机制以及插件生态与技能工作流(Skills)生态的准入管控与可信市场建设。(1)在权限管控层面,应以”默认关闭、按需授权”作为交互层安全的基本原则。当前协议实现中普遍存在的”默认允许”逻辑应被替换为”默认拒绝一切未明确声明的权限请求”的零信任架构。在MCP(模型上下文协议)握手阶段应强制执行双向传输层安全性(Transport Layer Security,TLS)认证,以短生命周期令牌替代长效凭证,并为每个工具调用请求附加细粒度的权限声明。在A2A(智能体间协同协议)通信场景下,应在API密钥互信的基础上强制要求双向证书认证,确保通信双方身份的真实性。(2)在技术网关层面,应部署专用的MCP(模型上下文协议)网关作为所有工具调用的统一代理层。MCP(模型上下文协议)网关通过协议校验与握手机制深度识别调用意图,拦截非法或未授权指令;建立工具白名单与分级管理体系,明确可调用的工具列表,超范围调用返回错误而不向后端透传,并针对高风险工具调用强制引入人工审批流程:构建数据沙箱,对读取指令实施路径限制,防止智能体越权访问敏感数据。在A2A(智能体间协同协议)场景下,应为任务设定预算上限及调用深度阈值,防止死循环导致的资源失控;并在传递提示词时清洗历史对话中的无关噪声,防止智能体A的上下文信息污染智能体B的决策链路(上下文隔离)。(3)在插件生态与技能工作流(Skills)生态治理层面,应建立分层次的准入与审计机制。首先,制定统一的插件生态与技能工作流(Skills)安全标准,明确功能声明、数据访问范围、网络通信权限等必要披露要求,限制不符合标准的插件生态与技能工作流(Skills)进入平台市场。其次,建立插件生态与技能工作流(Skills)安全评测能力,对上架插件生态与技能工作流(Skills)进行自动化静态分析与沙箱动态行为检测,重点甄别数据外泄、隐藏网络请求等异常模式。再次,实施分级审核机制,对涉及敏感数据访问或高权限操作的插件生态与技能工作流(Skills)实施人工复审,并建立持续监控机制,对已上架插件生态与技能工作流(Skills)的运行行为进行周期性审计。以上措施的最终目标是构建一个以可验证信任为基础的插件生态与技能工作流(Skills)市场,使平台中每一项能力组件的行为边界均处于可控、可审计的状态。




五、生态层治理:多主体协同能力与智能体商业生态规范
















(一)核心能力:从单一工具走向智能体经济


生态层代表了自主智能体从单一工具向更广泛协作网络的重要拓展。前述本体层与交互层的能力使智能体具备了理解意图、规划任务、调用工具的基础能力。然而,当真实世界的复杂任务需要跨越多个平台、整合多方服务、协调多个主体时,单一智能体的能力边界便显现出明显局限。生态协同能力的核心价值在于,通过构建多主体参与、权责分工明确的协作网络,智能体能够将分散于不同平台的数字服务统一编排,实现此前只有大型组织才能完成的复杂任务交付。以”AI +电商”领域为例,用户向智能体发出”帮我找一双适合徒步的轻量化登山靴,预算400元以内,尽快送达”的指令,智能体需同时调用商品搜索服务、价格比对数据库、用户偏好记录、库存与物流查询系统,并在用户确认后完成支付与订单跟踪。这一全流程的实现,依赖的正是多主体在生态层的深度协同。谷歌在其年度报告中指出,生态协同能力的成熟将推动人工智能从工具层面的服务提供者转变为具有一定独立性的经济活动参与者。智能体将能够代表用户自主完成交易、资源配置与价值创造,推动形成以”意图经济”为特征的新型商业范式。这一愿景的实现,既取决于技术标准与协议的成熟度,也高度依赖生态各方能否就权责边界、数据共享规则与利益分配机制达成可持续的协作框架。


当前,智能体生态建设正逐步形成两种代表性路线,可分别用”破窗”模式与”握手”模式加以概括。(1)“破窗”模式以计算机使用(Computer Use)能力为技术基础,凭借视觉感知与界面操控(如GUI技术),智能体能够与任意图形用户界面进行交互,无需目标应用提供专用接口。答案引擎AI公司(Perplexity AI)的购物功能即为典型案例,其智能体直接模拟用户操作访问亚马逊等电商平台,绕过平台官方渠道实现商品信息抓取与结账流程自动化这一路径虽然在技术层面具有较强的穿透力,但其对目标平台数据隔离机制的系统性突破引发了显著的合规争议。(2)“握手”模式则以API深度集成为技术基础,通过与平台官方接口的合作,可实现多平台数据的底层汇聚与跨系统工作流的无缝编排。谷歌Gemini与Shopify、沃尔玛等零售商的合作,以及阿里”千问”App接入淘宝、支付宝、飞猪、高德等阿里生态体系业务,均是”握手”模式的代表性实践。这一路径基于可鉴权、可追溯的技术接口实现平等协作,为责任划分提供了清晰的界面,也为技术创新与安全监管的动态平衡奠定了基础在商业协议层面,行业内已涌现出多种合作框架,如OpenAI提出的智能体商业协议(Agentic Commerce Protocol, ACP)、谷歌提出的通用商业协议(Universal Commerce Protocol, UCP) 以及蚂蚁提出的智能体商业可信协议(Agentic Commerce Trust Protocol,ACT)等,通过标准化、可审计的技术接口,实现了技术创新与安全监管的动态平衡。


(二)伴生风险:"破窗"模式与"握手"模式的权衡判断


“破窗”模式的核心风险在于其对目标平台数据隔离机制的强侵犯性。在竞争法语境下,这一路线可能触发多类规制路径:大规模自动化界面操控是否构成对平台数据库权的侵犯;当智能体聚合多平台服务向用户提供竞争性替代界面时,是否触发不正当竞争的认定标准。这些问题在现行竞争法框架下尚无清晰定论。“握手”模式的主要挑战在于产业落地进程中的高协商成本与商业惯性阻力。意图框架在技术架构和安全性上具备显著优势,但在实践推广中进展较为缓慢。这并非技术层面的障碍,而是受制于移动互联网时代的商业路径依赖。长期以来,应用平台通过锁定用户入口来构建广告变现与流量分发的竞争壁垒,开放标准应用程序编程接口(API)实质上意味着让渡入口控制权,对既有商业模式形成结构性冲击,各平台在缺乏明确收益预期的情况下,自愿开放的内生动力天然不足。在美国司法部诉谷歌案中,法院禁止谷歌签订与分发其核心应用相关的排他性合同的做法可视为对这一商业惯性的司法矫正。然而,近期业界的实践表明,“握手”模式可以通过商业契约的重构和技术实现的升级,实现生态的增量共赢。OpenAI与艺搜公司(Etsy)的合作案例印证了平等协作模式的可行性,双方确立了”Agent意图捕捉+平台交付履约”的合作模式,在这一模式下,智能体并未取代第三方平台,而是为其高效引流;艺搜公司(Etsy)最新财报数据显示,来自ChatGPT的流量展现出显著的高转化率特征,且契合艺搜公司(Etsy)作为工艺品电商所特有的非标品、长尾化交易场景。在商业模式上,双方构建了保护私域利益与增量价值付费的良性闭环机制。商户无须改变原有的销售方式,仅需为成交的增量订单支付小额技术服务费。这一模式实现了智能体平台、电商平台与商户三方的共同增益。


(三)治理路径:鼓励API协同,规范界面自动化操作


面对两种模式在竞争法效应上的分野,本文建议确立”鼓励握手协同、规范破窗操作”的差异化治理原则。对于基于平台官方API授权的智能体集成,宜采取包容性立场,推动平台以合理条件开放必要数据接口;应参照欧盟《数字市场法案》对”守门人”平台的互操作性义务,以标准化技术协议为基础建立行业级协作框架。当前业界已涌现的智能体商业协议(ACP)、通用商业协议(UCP)、智能体商业可信协议(ACT)等协议框架,有助于降低多方协作的交易成本,为生态层的协同治理提供技术支撑。


对于界面自动化方式的无授权访问,则应在现行竞争法框架下厘清其合规边界,明确大规模自动化界面操控的法律性质与责任归属。值得特别关注的是,当用户明确授权智能体代理其访问特定平台数据时,平台以竞争利益为由设置技术壁垒的正当性将大幅削减,监管应在此方向上予以明确引导,推动平台在用户明确授权情形下提供标准化的数据访问接口。与此同时,应建立多主体参与的生态治理协调机制,将平台、智能体开发者、用户代表与监管机构纳入统一的协商框架,就数据访问规则、责任分担原则与收益分配机制形成可持续的行业共识。技术标准的中立性是生态治理的重要保障。通过中立、统一的协议规范,将碎片化的连接需求标准化并实现跨平台的深度协作,才能为构建一个全球性、可信赖且具备高度扩展性的智能体协作生态奠定基础。

















结语














本文遵循OpenClaw类智能体能力与风险的伴生性原理,提出“本体一交互一生态”智能体风险分层治理制度方案。在此基础上,对智能体治理的后续方案提出以下建议。


第一,风险形态的质变要求治理逻辑实现根本转型。自主智能体将人工智能的主要风险形态从内容层面的信息风险升级为行为层面的执行风险,以内容审查与信息合规为核心的传统监管范式已不足以应对这一转变。风险的穿透性、隐蔽性与链式放大特征要求将行为安全”与”动态执行约束”纳入治理框架的核心坐标。


第二,能力与风险的同步演进是有效治理的关键。科林格里奇困境的破解之道在于放弃等待问题出现再行干预”的被动逻辑,转向每一层能力突破均对应一套约束机制”的主动内嵌逻辑。本文在本体层、交互层与生态层分别提出的治理路径,正是这一逻辑在三个维度上的具体展开。


第三,技术治理与制度治理的协同是构建可信智能体生态的双轮驱动。无论是本体层的模型规范内化与权限最小化等软硬结合机制、交互层的零信任架构与可信插件生态与技能工作流(Skills)生态建设,还是生态层的标准应用程序编程接口(API)协同规范与多主体协调治理机制,有效的治理方案均需在工程技术路径与法律制度设计之间形成相互强化、互为背书的协同结构。


随着智能体能力的持续迭代,若干前沿议题有待进一步研究。其一,多智能体系统中的涌现行为与集体风险。当大量智能体在开放网络中相互交互时,系统层面的涌现行为将超越单体智能体分析框架的解释边界,需要借鉴复杂系统理论构建新的分析工具。其二,智能体治理的跨境协调。智能体的跨境服务能力使得单一司法管辖区的监管措施面临显著的效力局限,如何在国际层面建立智能体安全标准的协调机制,是亟待探索的制度议题。其三,随着本文所识别的三层风险持续演化,分层治理框架本身的动态更新机制亦需纳入后续研究议程。














53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询