微信扫码
添加专属顾问
我要投稿
深度解析Cherry Studio与Ollama模型的无缝对接,让本地AI对话更便捷! 核心内容: 1. Cherry Studio与Ollama模型的配置流程 2. 本地模型在Cherry Studio中的应用与优势 3. 作者对技术小白的贴心指导与建议
在昨天的文章中已经讲了如何从Ollama官方网站下载、安装Ollama软件,并配置Windows环境变量,放开防火墙端口等,最后再下载运行了“mistral-small3.1”模型(该模型具备LLM推理对话、vision、tools功能),以及“bge-m3”模型(该模型是嵌入式模型,可用于知识库)。现在万事俱备只欠东风,我们就来看看如何配置Cherry Studio这种直接与用户打交道的“AI助手”或者叫“AI对话框”是如何与模型底层进行匹配工作的。
最后到Cherry Studio设置中去调整“默认模型”使用Ollama部署的“mistral-small3.1:latest”模型。
至此,就可以不受限制的在Cherry Studio的对话框中享受本地模型带来的使用便利了。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-06-17
2025-06-21
2025-07-03
2025-06-20
2025-06-26
2025-06-02
2025-07-28
2025-07-22
2025-06-17
2025-07-09