免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

实测 Ollama 新 Launch:一条命令运行 Claude Code、Codex 与 OpenCode(无需配置)

发布日期:2026-02-25 09:01:36 浏览次数: 1556
作者:AI大模型观察站

微信搜一搜,关注“AI大模型观察站”

推荐语

Ollama新命令一键启动Claude Code等工具,彻底告别繁琐配置,让编码助手触手可及。

核心内容:
1. Ollama v0.15新增的launch命令功能详解
2. 支持Claude Code/OpenCode/Codex等工具的免配置启动
3. 实测效果与云端模型结合的最佳实践

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

忘掉配置的烦恼吧,Ollama launch 是启动 Claude Code、Codex、OpenCode、Moltbot 或任意其他 CLI 工具的全新简易方式。

Ollama v0.15 引入了名为 ollama launch 的新命令,可使用本地或云端模型,自动完成 Claude Code、OpenCode、Codex 等常用编码工具的配置与启动。

如果你不是 Medium 高级会员,可在此处免费阅读完整教程:read the full tutorial FREE here,也欢迎考虑加入 Medium 支持我的创作

如果你一直关注 Ollama 的近期更新,你会知道他们在 v0.14 加入了对 Anthropic API 的兼容。

这为像 Claude Code 这样的工具接入开源模型打开了大门。

我之前在这里分享过如何配置的详细指南——I Tried New Claude Code Ollama Workflow ( It's Wild & Free)

但那时仍需要手动配置,比如导出环境变量、设置 base URL、以及摸索哪些模型更适合写代码。

ollama launch 这个新命令改变了这一切,让启动过程更顺滑。

我想亲自测试并把发现分享给你们,因为我知道很多人都在寻找能在本地运行具备 Agent 能力的编码工具、同时又不烧 API 点数的方法。

于是我花了一个下午,完成多种集成的设置,测试了多款模型,并记录了哪些方案可行。

在这篇文章里,我会告诉你我对 Ollama Launch 的发现,以及如何把它与 Ollama Cloud 模型一起快速用起来。


什么是 Ollama Launch?

想象一下,只用这个命令、无需任何配置就能启动你最喜欢的工具

ollama launch 是一个新命令,负责把各类编码工具与 Ollama 模型连接所需的一切设置。

它会引导你选择模型,并自动启动你选定的集成。

目前支持四种集成:

  • Claude Code —— Anthropic 的终端内 agentic 编码工具
  • OpenCode —— 面向终端编码的开源替代品
  • Codex —— OpenAI 的编码助手集成
  • Droid —— 另一种编码工具选项

运行 ollama launch 时,你会看到一个交互式菜单来选择想用的集成。

也可以直接用如 ollama launch claude 或 ollama launch opencode 这样的命令指定某个工具。

它会在后台替你完成 Anthropic API 的配置。以前你需要手动设置:

export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434

现在只需一个命令,你就能开始写代码了。


配置 Ollama Launch

整个流程大概五分钟。你需要做这些:

步骤 1:更新 Ollama

确保你已安装 Ollama v0.15 或更高版本。若版本较旧,请到 ollama.com 下载最新版。

确认已安装 Ollama v0.15+

  • 检查版本:ollama --version

我当前版本偏旧,需要更新一下。

如需更新,请访问:https://ollama.com/download

下载完成后,点击安装包开始升级,按向导完成步骤:

安装完成后,确认版本应为 0.15.2 或更高:

你需要一款对代码友好的模型。Ollama 推荐如下:

本地模型(需约 23GB VRAM,支持 64K context):

  • glm-4.7-flash
  • qwen3-coder
  • gpt-oss:20b

云端模型(完整 context length,无硬件要求):

  • glm-4.7:cloud
  • minimax-m2.1:cloud
  • qwen3-coder:480b-cloud

拉取你选定的模型:

ollama pull glm-4.7-flash

或使用云端模型:

ollama pull glm-4.7:cloud

预期输出:模型将被下载/注册(云端模型很轻量,因为推理在远端进行)

步骤 3:配置 Context Length

这一步很重要,也最容易被忽略。

Ollama 默认的 context length 是 4,096 tokens。

编码工具要正常工作需要更长的上下文。建议至少为 64,000 tokens,特别是 Claude Code 等工具。

打开 Ollama 设置,更新 context length。

如果不改这个设置,模型的“记忆”不够,无法处理多文件操作、tool calls 或较长的编码会话。

使用云端模型会自动启用完整的 context length,如果你用的是云端模型,这一步可以跳过。

步骤 4:启动

ollama launch claude

很快你就会看到 Claude Code 使用你选择的模型启动起来。

注意,我在上一步拉取的是 GLM-4.7 的云端版本。

要完成这一步,你需要一个 Ollama Cloud 账号。我自己是按每月 20 美元订阅的,之前在这篇教程里注册的——I Tried Claude Code Ollama Workflow

如果你想拉取其他模型,可使用以下命令:

# GLM 4.7 Cloud - 推荐用于编码
ollama pull glm-4.7:cloud

# MiniMax M2.1 Cloud - 备选
ollama pull minimax-m2.1:cloud

# Qwen3 Coder 480B Cloud - 体量最大的编码模型
ollama pull qwen3-coder:480b-cloud

# GPT-OSS 120B Cloud - 另一款大型模型
ollama pull gpt-oss:120b-cloud

我之前也拉取过 gpt-oss:120b-cloudDeepSeek-coder:1.3b 和 qwen2.5-coder:7b,所以你会在我的可用模型列表里看到它们:


Ollama Launch 测试

我用 Claude Code 和 OpenCode 测试了 ollama launch

首先确保已安装 Claude Code:

  • macOS/Linux/WSL: curl -fsSL https://claude.ai/install.sh | bash
  • Windows PowerShell: irm https://claude.ai/install.ps1 | iex

使用云端模型时,你可能需要一个 Ollama 账号:

  • 若被提示,请到 ollama.com 注册

当你运行 ollama launch claude 时,会出现一个模型选择提示。在我这里,同时有本地和云端选项可用:

  • deepseek-coder:1.3b (local)
  • glm-4.7:cloud
  • gpt-oss:120b-cloud
  • qwen2.5-coder:7b (local)

我选择了 glm-4.7:cloud 作为主要测试模型,因为云端模型具备完整的 context length 且没有硬件限制。

选好模型后,Claude Code 会非常快地启动,再也不用像我之前的方案那样折腾配置了。

检查状态时,我看到环境如下:

  • Model: glm-4.7:cloud
  • Auth token: ANTHROPIC_AUTH_TOKEN
  • Anthropic base URL: http://localhost:11434

Claude Code 运行后,我用第一个指令做测试:

创建一个计算斐波那契数列的 Python 函数,并将其保存为 fib.py

如你所见,它很快就生成了代码。现在我用这套简洁的 Ollama Launch 配置,把 Ollama Cloud 模型和 Claude Code 结合起来了。


OpenAI Codex 的 Ollama Launch 测试

测试 OpenAI Codex 前,先确保已安装:

npm install -g @openai/codex

现在用这条命令测试 Ollama launch:

ollama launch codex --model glm-4.7:cloud

它会以 glm-4.7:cloud 模型启动,我也能复现在 Claude Code 上做过的同一测试:

创建一个计算斐波那契数列的 Python 函数,并将其保存为 fib.py

几秒钟内就生成了代码,并已准备好写入文件。


OpenCode 的 Ollama Launch 测试

第一步,确保你已安装 OpenCode:

npm install -g opencode-ai

用 OpenCode 测试启动,命令如下:

ollama launch opencode --model glm-4.7:cloud

它会先提示将修改 OpenCode 的配置,并告知备份文件的保存路径。

接受后即可启动 OpenCode。

同样,OpenCode 和 Claude Code、OpenAI Codex 一样,都会以 glm-4.7:cloud 模型启动,我也能复现同样的测试:

创建一个计算斐波那契数列的 Python 函数,并将其保存为 fib.py

和另外两者一样,它很快就生成了代码,并已准备好写入文件。

我们已经用三款最流行的终端编码工具成功测试了 Ollama Launch。

和之前那篇用 Claude Code 手动配置的帖子相比,你会发现它更快、更易用——参考这里的旧方法


总结

ollama launch 是 Ollama 工具集中最棒的新增功能之一,再也不用把时间浪费在手动配置上。

它消除了配置编码工具集成的摩擦,使整个流程对更多开发者更友好。只用这一条命令,你就能从零到用本地模型运行起 Claude Code。

文中提到的一切链接都能在 Ollama 文档里找到。动手试试吧,也欢迎告诉我你在本地环境中的体验。

你测试过 ollama launch 吗?欢迎留言分享你的体验——我很想知道在不同硬件条件下,哪些模型和配置最好用。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询