微信扫码
添加专属顾问
我要投稿
无缝集成 HSF 服务到 MCP 生态,阿里巴巴内部经验分享。 核心内容: 1. MCP 生态的发展及其对资源访问和多代理互操作的影响 2. 阿里巴巴利用 Higress AI 网关,实现 HSF 服务到 MCP Server 的快速转换 3. Higress 在 MCP 生态中的角色及托管方案的优势分析
挑战
现有 MCP 的 SDK 还比较初级,仅对 SPEC 做了简单实现,在可用性上远远达不到生产级别,需要较长的时间稳定。比如 java-sdk 的 0.7.0 和 0.8.0 的 API 有非常多的改动项,MCP Java SDK Migration Guide: 0.7.0 to 0.8.0。对于应用开发同学而言,不光要升级,还要改接入的代码,成本和风险都是翻倍的。
MCP 生态虽然热火朝天,但缺乏系统化和最优实践,达到共识的时间成本和个人的学习成本不可忽视。如何快速掌握 MCP 协议和 MCP 应用开发,最快的方式当然是在现有的业务场景里先跑起来,然后一边运行一边学习。那么如何才能在不懂 MCP 的前提下跑起来自己的 MCP Server ?
转换 HSF Service -> MCP Server
组件
操作步骤
step2:选择需要转 MCP Tool 的 hsf 应用(自己为 owner/ops 的应用)、服务名和方法名。
注意:工具描述需要准确具体,用于给大模型识别 tool 的用途。
step3:补充标记为 //TODO 部分的 method 的入参的 fieldName 和 description
请求参数结构会自动生成,只需添加名称(key) 和描述 (description)。
step4:利用上述工具以 mcp sse 方式访问域名( tool 创建完后一分钟左右即可被 list )
http://{MCP endpoint prefix}/{applicationName}/sse
cursor 配置如下
{ "mcpServers": { "{applicationName}": { "url": "http://{MCP endpoint prefix}/{applicationName}/sse" } }}
实际效果
AI Infra视角对MCP的思考
总结
本文提供了阿里内部大规模 HSF 服务快速转换为 MCP Server 的实践,用于帮助业务同学降低改造成本,快速融入 MCP 生态,紧跟 AI 原生应用的发展速度。目前看来,MCP 只是第一步,AI 原生应用的路还很长,希望这篇文章能对 AI Infra 领域感兴趣的同学和团队有所启发。
基于缓存实现应用提速
随着业务发展,承载业务的应用将会面临更大的流量压力,如何降低系统的响应时间,提升系统性能成为了每一位开发人员需要面临的问题,使用缓存是首选方案。本方案介绍如何运用云数据库Redis版构建缓存为应用提速。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-09-03
10分钟零代码,0元立即部署OpenAI开源模型 GPT-OSS
2025-09-03
coze开源能力及与官方闭源版比较
2025-09-03
工业级AI平台开源,识别率超过99%,包含图像采集、智能检测、数据标注、模型训练四大模块
2025-09-02
Coze教程 | 第2章:Coze开发环境搭建与配置
2025-09-01
谁才是企业级开源平台的优选?OpenCSG与Dify、Coze、Langflow、Ollama 的差异化之路
2025-09-01
苹果深夜开源FastVLM:速度飙升85倍,0.5B小模型要逼疯谁?
2025-09-01
美团正式发布并开源 LongCat-Flash-Chat,动态计算开启高效 AI 时代
2025-09-01
突发,美团推出 560B 开源模型,名为长猫
2025-07-23
2025-06-17
2025-08-20
2025-06-17
2025-07-23
2025-08-05
2025-07-14
2025-08-20
2025-07-29
2025-07-12
2025-09-01
2025-08-16
2025-08-13
2025-08-11
2025-08-11
2025-08-06
2025-08-06
2025-08-06