微信扫码
添加专属顾问
我要投稿
最近发现华为NPU的生态里多了一个成员——MindIE,部分解决了大模型推理的问题,下面简要介绍下Mind华为昇腾NPU卡的生态。
CANN 对应 CUDAMindSpore 对应 PyTorchMindFormer 对应 TransformersMindIE 对应 vLLM首先,在英伟达的生态中,有从底层到上层分别有CUDA、PyTorch、transformers、vLLM等常见库。对应的,在华为的生态中,分别有CANN、MindSpore、MindFormer、MindIE。具体对应关系见下图:
关于MindSpore、MindIE的详细介绍,分别见下面的图与链接:
MindSpore——https://www.mindspore.cn/
MindIE——https://www.hiascend.com/software/mindie
在华鲲振宇AI最优解/ Ascend-FAQ的gitee[1]页面上,介绍了MindIE目前支持的模型,包含了llama3-8B、llama2-7B、Qwen1.5-14B-Chat、Qwen1.5-72B-Chat、chatglm3-6B等模型。
目前看支持的大模型很少,而且页面上没有写的大概率不支持(比如Qwen1.5-32B-Chat以及Qwen2系列实测均不支持)。
虽然支持的模型不多,但是,得益于910B系列卡的强劲算力,配合MindIE框架做了下并发推理测试,具体结果如下:
可以看到4卡910B4,跑Qwen1.5-14B-Chat模型,在40并发的情况下,首token平均延迟为66毫秒,每秒token生成数在1200左右,单个请求每秒生成token数约为30个,基本可以满足生产环境的需求
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-05-14
小企业专属Claude来了!一键接入全套业务流,不用写代码AI自动算账催款
2026-05-14
开源 ElevenLabs 平替来了!OmniVoice Studio 本地免费实现电影级配音
2026-05-14
重构大模型通信架构:火山引擎 RocketMQ For AI 解决方案
2026-05-14
别再一步步确认了:/goal让AI编程真正自己干活
2026-05-14
MiniMax 推出了 Mavis,活脱脱的 Agent「三省六部」
2026-05-13
BP Claw 破解 AI 编码输入难题 ——FlinkSpec 需求智能化实践|得物技术
2026-05-13
AI-Generated UI 技术深度解析:模型流式输出与 UI 渲染实践
2026-05-12
AI 交互的范式转变:从"回合制"到"实时协作"
2026-04-15
2026-03-31
2026-02-14
2026-03-13
2026-04-07
2026-03-17
2026-03-17
2026-04-07
2026-03-21
2026-02-20
2026-05-09
2026-05-09
2026-05-09
2026-05-08
2026-05-07
2026-04-26
2026-04-22
2026-04-18