微信扫码
添加专属顾问
我要投稿
Ollama新命令一键启动Claude Code等工具,彻底告别繁琐配置,让编码助手触手可及。 核心内容: 1. Ollama v0.15新增的launch命令功能详解 2. 支持Claude Code/OpenCode/Codex等工具的免配置启动 3. 实测效果与云端模型结合的最佳实践
忘掉配置的烦恼吧,Ollama launch 是启动 Claude Code、Codex、OpenCode、Moltbot 或任意其他 CLI 工具的全新简易方式。
Ollama v0.15 引入了名为
ollama launch的新命令,可使用本地或云端模型,自动完成 Claude Code、OpenCode、Codex 等常用编码工具的配置与启动。
如果你不是 Medium 高级会员,可在此处免费阅读完整教程:read the full tutorial FREE here,也欢迎考虑加入 Medium 支持我的创作。
如果你一直关注 Ollama 的近期更新,你会知道他们在 v0.14 加入了对 Anthropic API 的兼容。
这为像 Claude Code 这样的工具接入开源模型打开了大门。
我之前在这里分享过如何配置的详细指南——I Tried New Claude Code Ollama Workflow ( It's Wild & Free)
但那时仍需要手动配置,比如导出环境变量、设置 base URL、以及摸索哪些模型更适合写代码。
ollama launch 这个新命令改变了这一切,让启动过程更顺滑。
我想亲自测试并把发现分享给你们,因为我知道很多人都在寻找能在本地运行具备 Agent 能力的编码工具、同时又不烧 API 点数的方法。
于是我花了一个下午,完成多种集成的设置,测试了多款模型,并记录了哪些方案可行。
在这篇文章里,我会告诉你我对 Ollama Launch 的发现,以及如何把它与 Ollama Cloud 模型一起快速用起来。
想象一下,只用这个命令、无需任何配置就能启动你最喜欢的工具
ollama launch 是一个新命令,负责把各类编码工具与 Ollama 模型连接所需的一切设置。
它会引导你选择模型,并自动启动你选定的集成。
目前支持四种集成:
运行 ollama launch 时,你会看到一个交互式菜单来选择想用的集成。
也可以直接用如 ollama launch claude 或 ollama launch opencode 这样的命令指定某个工具。
它会在后台替你完成 Anthropic API 的配置。以前你需要手动设置:
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434
现在只需一个命令,你就能开始写代码了。
整个流程大概五分钟。你需要做这些:
步骤 1:更新 Ollama
确保你已安装 Ollama v0.15 或更高版本。若版本较旧,请到 ollama.com 下载最新版。
确认已安装 Ollama v0.15+
ollama --version我当前版本偏旧,需要更新一下。
如需更新,请访问:https://ollama.com/download
下载完成后,点击安装包开始升级,按向导完成步骤:
安装完成后,确认版本应为 0.15.2 或更高:
你需要一款对代码友好的模型。Ollama 推荐如下:
本地模型(需约 23GB VRAM,支持 64K context):
glm-4.7-flashqwen3-codergpt-oss:20b云端模型(完整 context length,无硬件要求):
glm-4.7:cloudminimax-m2.1:cloudqwen3-coder:480b-cloud拉取你选定的模型:
ollama pull glm-4.7-flash
或使用云端模型:
ollama pull glm-4.7:cloud
预期输出:模型将被下载/注册(云端模型很轻量,因为推理在远端进行)
步骤 3:配置 Context Length
这一步很重要,也最容易被忽略。
Ollama 默认的 context length 是 4,096 tokens。
编码工具要正常工作需要更长的上下文。建议至少为 64,000 tokens,特别是 Claude Code 等工具。
打开 Ollama 设置,更新 context length。
如果不改这个设置,模型的“记忆”不够,无法处理多文件操作、tool calls 或较长的编码会话。
使用云端模型会自动启用完整的 context length,如果你用的是云端模型,这一步可以跳过。
步骤 4:启动
ollama launch claude
很快你就会看到 Claude Code 使用你选择的模型启动起来。
注意,我在上一步拉取的是 GLM-4.7 的云端版本。
要完成这一步,你需要一个 Ollama Cloud 账号。我自己是按每月 20 美元订阅的,之前在这篇教程里注册的——I Tried Claude Code Ollama Workflow
如果你想拉取其他模型,可使用以下命令:
# GLM 4.7 Cloud - 推荐用于编码
ollama pull glm-4.7:cloud
# MiniMax M2.1 Cloud - 备选
ollama pull minimax-m2.1:cloud
# Qwen3 Coder 480B Cloud - 体量最大的编码模型
ollama pull qwen3-coder:480b-cloud
# GPT-OSS 120B Cloud - 另一款大型模型
ollama pull gpt-oss:120b-cloud
我之前也拉取过 gpt-oss:120b-cloud、DeepSeek-coder:1.3b 和 qwen2.5-coder:7b,所以你会在我的可用模型列表里看到它们:
我用 Claude Code 和 OpenCode 测试了 ollama launch。
首先确保已安装 Claude Code:
curl -fsSL https://claude.ai/install.sh | bashirm https://claude.ai/install.ps1 | iex使用云端模型时,你可能需要一个 Ollama 账号:
当你运行
ollama launch claude时,会出现一个模型选择提示。在我这里,同时有本地和云端选项可用:
deepseek-coder:1.3b (local)glm-4.7:cloudgpt-oss:120b-cloudqwen2.5-coder:7b (local)我选择了 glm-4.7:cloud 作为主要测试模型,因为云端模型具备完整的 context length 且没有硬件限制。
选好模型后,Claude Code 会非常快地启动,再也不用像我之前的方案那样折腾配置了。
检查状态时,我看到环境如下:
Claude Code 运行后,我用第一个指令做测试:
创建一个计算斐波那契数列的 Python 函数,并将其保存为 fib.py
如你所见,它很快就生成了代码。现在我用这套简洁的 Ollama Launch 配置,把 Ollama Cloud 模型和 Claude Code 结合起来了。
测试 OpenAI Codex 前,先确保已安装:
npm install -g @openai/codex
现在用这条命令测试 Ollama launch:
ollama launch codex --model glm-4.7:cloud
它会以 glm-4.7:cloud 模型启动,我也能复现在 Claude Code 上做过的同一测试:
创建一个计算斐波那契数列的 Python 函数,并将其保存为 fib.py
几秒钟内就生成了代码,并已准备好写入文件。
第一步,确保你已安装 OpenCode:
npm install -g opencode-ai
用 OpenCode 测试启动,命令如下:
ollama launch opencode --model glm-4.7:cloud
它会先提示将修改 OpenCode 的配置,并告知备份文件的保存路径。
接受后即可启动 OpenCode。
同样,OpenCode 和 Claude Code、OpenAI Codex 一样,都会以 glm-4.7:cloud 模型启动,我也能复现同样的测试:
创建一个计算斐波那契数列的 Python 函数,并将其保存为 fib.py
和另外两者一样,它很快就生成了代码,并已准备好写入文件。
我们已经用三款最流行的终端编码工具成功测试了 Ollama Launch。
和之前那篇用 Claude Code 手动配置的帖子相比,你会发现它更快、更易用——参考这里的旧方法。
ollama launch 是 Ollama 工具集中最棒的新增功能之一,再也不用把时间浪费在手动配置上。
它消除了配置编码工具集成的摩擦,使整个流程对更多开发者更友好。只用这一条命令,你就能从零到用本地模型运行起 Claude Code。
文中提到的一切链接都能在 Ollama 文档里找到。动手试试吧,也欢迎告诉我你在本地环境中的体验。
你测试过 ollama launch 吗?欢迎留言分享你的体验——我很想知道在不同硬件条件下,哪些模型和配置最好用。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-02-25
Claude Code 龙虾化!上线远程控制:手机随时接管本地终端,开发环境无缝同步
2026-02-25
引爆SaaS万亿美元抛售之后,Anthropic加码Cowork,要改变所有白领
2026-02-24
当软件不值钱了以后,最稀缺的资源是什么?
2026-02-24
OpenAI Codex负责人:我们熟悉的编程方式正在终结 | Jinqiu Select
2026-02-24
OpenClaw 最佳实践:5条“基本原则”
2026-02-24
春节归来第一天,Second Me 做了一个「Agent 互联网的 App Store」
2026-02-24
万字深度解读 MCP Apps:重构 Web 应用,开启 AI 助手的“小程序”时代。
2026-02-24
AI Agent系列|什么是 ReAct Agent?
2026-01-24
2026-01-10
2026-01-01
2026-01-26
2025-12-09
2026-02-03
2025-12-21
2026-01-09
2026-01-09
2026-01-27
2026-02-24
2026-02-24
2026-02-20
2026-02-14
2026-02-13
2026-02-12
2026-02-12
2026-02-11