微信扫码
添加专属顾问
我要投稿
掌握DeepSeek R1本地部署与集成技巧,提升工作效率。 核心内容: 1. 本地部署DeepSeek R1的详细步骤 2. 通过ollama集成DeepSeek R1到Dify中 3. 提升工作效率的实践指南
据说DeepSeek R1模型用更低的训练成本,全方位逼近甚至超越OpenAI的o1模型,并且其APP也登上了中国和美国苹果应用商店免费榜的第一名。
相比于CloseAI,DeepSeek开源了其模型权重,使得普通人也可以在家用电脑上进行部署。
今天,手把手教大家在本地部署DeepSeek R1,并将其集成到Dify中,实打实提升你的工作效率!
在本节中,主要介绍如何在本地通过ollama部署DeepSeek R1。后面的章节将介绍如何将其集成到Dify中。
进入到ollama官网,选择对应的操作系统,下载ollama应用程序并安装:
安装成功之后,在命令行输入ollama,如果出现下面的提示,则说明安装成功。
在ollama官网的顶部,点击「Models」,然后选择第一个「DeepSeek R1」:
在模型界面,根据自己的显存大小选择对应的版本:
比如,我的电脑是MacOS 32G,这里我选择了14b的模型,点击14b,然后在右侧会出现下载命令:
将下载命令复制到命令行中执行:
命令执行完成之后,就可以通过命令行和大模型进行对话了:
当然,只是通过命令和大模型进行对话还是不太方便了点,那么接下来,介绍一下如何将其集成到Dify中,通过可视化的方式进行调用。
Dify的部署过程这里不再赘述了,感兴趣的可以看我往期的文章《群晖NAS+Dify:AI原生应用部署教程,解锁大模型智能与工作流新境界》。
登录到已经部署好的Dify中,点击右上角的头像,然后点击设置:
在「模型供应商」界面中选择「ollama」:
在「模型名称」中填:deepseek-r1:14b。在「基础URL中」,如果ollama和Dify是同机部署,并且Dify是通过Docker部署,那么填http://host.docker.internal:11434,其他情况填http://ollama的地址:11434,填完之后点击保存即可。
下面介绍一下在Dify中创建一个应用来使用DeepSeek R1模型。
在Dify的「工作室」中点击「创建空白应用」
在弹出的窗口中选择「聊天助手」,填写「应用名称」和「描述」,然后点击创建:
创建完成之后,在右上角选择添加好的DeepSeek R1模型:
下面进行提问试试:
需要注意的是,DeepSeek R1是一个推理模型,不支持函数调用,也就是说无法集成在DIfy的智能体中,但是DeepSeek V3可以。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-02-06
Qwen3-Coder-Next 上线模力方舟:仅 3B 激活参数,媲美主流大模型的 Agent 编码能力
2026-02-06
给自己搭一个 AI 搭档:OpenClaw 安装使用全记录
2026-02-06
Qwen3-TTS:2026年最强开源文本转语音模型完全指南
2026-02-06
OpenClaw 爆火之后,我们看到了这些创业信号
2026-02-05
从Clawdbot到OpenClaw:爆款本地AI Agent的产品逻辑与争议
2026-02-05
Clawdbot 如何实现像人一样的长期记忆?
2026-02-05
全球最多下载中文开源数据集更新|OpenCSG持续打造中文高质量数据集开源底座
2026-02-05
【开源】12.1K Star!用 Markdown 给大模型装上“外挂大脑”,不写后端、不搭平台,这个开源项目让你用 Git 管理 AI 任务流
2025-11-19
2026-01-27
2025-12-22
2026-01-12
2026-01-29
2025-11-17
2025-12-10
2026-01-28
2025-12-23
2026-01-06
2026-02-05
2026-01-28
2026-01-26
2026-01-21
2026-01-21
2026-01-20
2026-01-16
2026-01-02