微信扫码
添加专属顾问
我要投稿
企业AI助手本地化部署的最佳实践,CherryStudio与GPUStack强强联合,打造安全高效的私有化AI解决方案。 核心内容: 1. 企业AI私有化部署的核心需求与挑战 2. CherryStudio的多模型桌面客户端功能详解 3. GPUStack作为算力中枢的关键特性与优势
随着大模型的普及,越来越多的企业希望借助 AI 提升工作效率——从智能对话、文档分析到知识问答与研发辅助,AI 正在重塑企业的工作方式。但在实际落地中,数据安全与隐私合规始终是绕不过的问题。为确保企业核心数据不外流、私有化模型稳定可控,本地私有化部署逐渐成为企业首选方案,而 CherryStudio 与 GPUStack 的结合,正是这一需求的理想实现。
CherryStudio 作为交互界面,为企业员工提供便捷的操作入口和知识管理能力,让用户能够轻松调用内部模型、查询知识库,以及生成文档和辅助决策,提升业务流程的智能化水平与工作效率。
而 GPUStack 是整套系统的算力与模型管理中枢。它为企业提供统一的模型部署、调度与监控能力,支持多模型的单机/多机运行与自动资源分配,确保推理过程高效稳定。同时,GPUStack 还具备认证授权、负载均衡、故障恢复与指标观测功能,让企业在本地掌控模型生命周期,实现对 AI 服务的统一管理与合规运行。
CherryStudio 是跨平台(Windows、macOS、Linux)的桌面 AI 客户端,支持连接多种 LLM 服务:
作为 AI 生产力中心,适用于办公、编程、学习与创作等场景。
如果将 CherryStudio 视为交互前端,GPUStack 则是后端引擎。
GPUStack 提供标准化 API,可与上层系统(如 CherryStudio、业务服务或自定义应用)无缝集成,实现模型即服务(Model-as-a-Service)的统一访问,让企业能够集中管理算力资源,快速上线或更新模型服务。
天数智芯、寒武纪、沐曦 等
简而言之:GPUStack 将服务器构建为可管理的 AI 平台,适合企业私有化部署与模型统一管理。
首先,参考 GPUStack 官方文档完成安装(https://docs.gpustack.ai/latest/installation/nvidia-cuda/online-installation/)。推荐容器化部署方式,在 NVIDIA GPU 服务器上,根据文档要求完成对应版本的 NVIDIA 驱动、Docker 和 NVIDIA Container Toolkit 安装后,通过 Docker 启动 GPUStack 服务。
docker run -d --name gpustack \
--restart=unless-stopped \
--gpus all \
--network=host \
--ipc=host \
-v gpustack-data:/var/lib/gpustack \
registry.cn-shanghai.aliyuncs.com/gpu-stack/gpustack:v0.7.1
启动完成后,在浏览器访问 http://your_server_ip:
若 your_server_ip 为 localhost 或 127.0.0.1,可直接进入管理界面。
管理员账号为 admin,默认密码使用以下命令查看:
docker exec -it gpustack cat /var/lib/gpustack/initial_admin_password
更多设备与安装方式参考官方文档:https://docs.gpustack.ai/latest/overview/
Qwen3)模型可用后,可在 GPUStack 的「Playground - Chat」直接测试:
亦可按需部署更多模型(如下仅为演示):
更多部署细节见 GPUStack 项目与文档:
显存不足或需添加多节点,请参考下图:
如尚未安装 CherryStudio,请先访问官网安装:https://www.cherry-ai.com/
1. 打开 CherryStudio,进入「设置」→「模型服务」,搜索 “GPUStack”
2. 选择「GPUStack」,并启用(未启用将无法使用)
3. 配置参数:
http://your_server_ip/v1-openai/(注意:末尾斜杠必需)4. 管理模型
5. 测试连接
配置正确后,会显示“连接成功”。
6. (可选)设置默认模型
至此,CherryStudio 即可调用 GPUStack 上部署的模型,获得与 OpenAI 一致的使用体验,同时实现对数据与算力的完全掌控。
接入 GPUStack 后,可在 CherryStudio 中自由切换多类模型,覆盖更多应用场景:
结合 CherryStudio 的多模态界面、知识库与插件体系,可构建功能完整的 AI 助手中心。
上述示例中,答案不正确,主要由于模型尺寸(7B)与量化精度(4bit)受限。更换更大模型后,结果正确:
向量嵌入是现代检索与问答系统的重要组成部分,通过将文本或文档映射为高维向量,实现语义级相似度匹配,从而提升搜索与问答质量。
以下示例展示如何结合知识库实现语义检索与问答:
1. 准备知识库内容(示例为手动创建)
2. 不使用知识库进行问答
3. 使用知识库进行问答
注意:某些模型的函数调用输出格式与 CherryStudio 预期不一致,可能导致未能按预期调用知识库。此类差异在当前生态中较常见。
更换其他模型后再次尝试:
如果模型判断问题简单而不触发查库,可通过系统提示词明确约束:回答必须依据知识库内容。调整后,结果如预期:
更多用法,欢迎探索。
适用于企业内部应用的私有化落地,安全、高效且灵活。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-12-16
乐鑫推出私有化智能体平台:兼容主流大模型,打造多模态 AI 能力
2025-12-16
英特尔核显就能跑120B大模型?我们不如实测看看!
2025-12-15
豆包“撕裂”AI手机
2025-12-15
树莓派AI产品,现已全面支持最新发布的树莓派操作系统Trixie版本!
2025-12-14
AI终端用户洞察:认知、行为与价值演进
2025-12-12
手机AI智能体助手的四大风险与五层防护
2025-12-12
趋境科技×智谱AI联手,把千亿大模型装进桌面小盒子:「灵启AI小盒子」开启个人超级AI Lab时代
2025-12-11
2000元搞定企业级AI算力!DellR730XD+双P100+ESXi8.0+AlmaLinux9直通部署终极指南
2025-09-19
2025-12-05
2025-11-09
2025-10-13
2025-10-24
2025-10-27
2025-12-01
2025-11-17
2025-12-09
2025-09-20