微信扫码
添加专属顾问
我要投稿
掌握Ollama,让你的AI模型运行更高效! 核心内容: 1. Ollama开源项目介绍及其优势 2. Ollama支持的LLMs和使用场景 3. 实用指南:自定义Ollama安装路径步骤详解
本地运行:支持在个人电脑或服务器上运行 LLMs,确保数据隐私和安全。
模型支持:兼容多种开源 LLMs,如 LLaMA、GPT-J 等。
易用性:提供简单接口,方便用户快速部署和使用模型。
跨平台:支持 macOS、Linux 和 Windows 等操作系统。
隐私保护:处理敏感数据时,本地运行避免数据外泄。
离线使用:在没有网络连接的环境中运行模型。
定制开发:开发者可基于 Ollama 构建定制化应用。
学习研究:学生和研究人员可用它进行实验和项目开发。
Ollama 的默认安装路径在C盘,而且exe安装时不能选择安装路径。接下来3步搞定Ollama自定义安装:C盘告急者的救命指南。
例如创建文件夹在 H:\Ollama
OllamaSetup.exe /DIR=H:\Ollama
创建系统环境变量 OLLAMA_MODELS,变量值设置成模型存放位置 eg. H:\Ollama\models
模型默认存放路径在用户主目录下的.ollama文件夹,例如我的存放在C:\Users\TAOjay\.ollama\models文件夹。将该文件夹下的内容复制到OLLAMA_MODELS 设置的文件夹内即可。
运行命令检查是否迁移成功:
> ollama list# 输出NAME ID SIZE MODIFIEDdeepseek-r1:7b 0a8c26691023 4.7 GB 13 hours agodeepseek-r1:1.5b a42b25d8c10a 1.1 GB 38 hours ago
比如下载DeepSeek-模型文件 DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf:
在该路径下创建名为Modelfile的文件,文件内容为:
FROM DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf
ollama create deepSeek-r1:7b -f H:/LLM_MODELS/Modelfile
ollama run deepSeek-r1:7b
要查看给定模型的Modelfile,使用ollama show --modelfile
命令。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-09-11
智能体变现难题破解:三步打造专属AI智能体网站,开源方案让你收入倍增!
2025-09-10
从抵触AI到AI破局,我把Coze、n8n、Dify等5个主流智能体平台扒了个底朝天
2025-09-09
为 ONLYOFFICE AI 智能体开发自定义函数:实践指南&夺奖攻略!
2025-09-09
开源智能体开发框架全面对比分析
2025-09-09
Dify Pre-release版本来了,Dify2.0时代不远了,看看有哪些进步?
2025-09-09
硅基流动上线 DeepSeek-V3.1,上下文升至 160K
2025-09-08
微信公众号“内容孤岛”终结者:免费开源工具,批量下载+完美还原!
2025-09-08
Claude不让用,有哪些国产模型能迎头赶上?
2025-07-23
2025-06-17
2025-08-20
2025-06-17
2025-09-07
2025-07-23
2025-08-05
2025-07-14
2025-08-20
2025-07-29
2025-09-09
2025-09-08
2025-09-07
2025-09-01
2025-08-16
2025-08-13
2025-08-11
2025-08-11