2026年4月10日 周五晚上19:30,来了解“从个人单点提效,到构建企业AI生产力”(限30人)
免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

把你的 Mac 变成 AI 服务器:LM Studio 部署 Gemma 4 + OpenClaw 接入实战

发布日期:2026-04-08 16:39:06 浏览次数: 1584
作者:人生DE杂货铺

微信搜一搜,关注“人生DE杂货铺”

推荐语

让你的Mac成为AI服务器!轻松部署Gemma 4模型并通过OpenClaw实现跨设备调用,打造私有AI助手。

核心内容:
1. 本地AI服务器架构解析:Mac运行LM Studio提供API,OpenClaw通过局域网调用
2. Gemma 4版本选择指南:从E2B到31B的性能与资源需求对比
3. 详细部署步骤:模型下载、API服务开启、局域网配置与OpenClaw接入

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

 


如果你平时就在 Mac 上用 LM Studio跑本地模型,又希望让另一台电脑上的 OpenClaw直接调用这个模型,那么这篇文章就是写给你的。

整套方案并不复杂:

  • • 在 Mac上用 LM Studio下载并加载 Gemma 4
  • • 打开 LM Studio 的本地 API 服务
  • • 开启局域网访问
  • • 在另一台电脑上安装 OpenClaw
  • • 把 OpenClaw 的模型 provider 指向这台 Mac 的 LM Studio 接口

这样做的好处很直接:模型推理留在本地,链路清晰,部署成本低,后续也方便继续扩展成你自己的私有 AI 助手。


Google 官方已经把 LM Studio列为 Gemma 的本地运行方案之一;LM Studio 官方也支持把本地模型以 API 形式跑起来,并提供 OpenAI-compatible endpoints;而 OpenClaw 官方则明确支持通过 models.providers接入这类本地 OpenAI-compatible provider。


一、先讲清楚:整套架构到底是什么

你可以把它理解成下面这个结构:

另一台电脑上的 OpenClaw
          │
          │  通过局域网访问 LM Studio API
          ▼
Mac 上的 LM Studio Server
(默认常见端口 1234)
          │
          ▼
      Gemma 4 模型

这里最关键的一点是:

  • • 真正跑模型的是你的 Mac
  • • OpenClaw 只是模型调用方
  • • 两台设备之间通过局域网通信

二、部署前先选模型:Gemma 4 该下哪个版本?

Gemma 4 当前主线有四个版本:

  • • E2B
  • • E4B
  • • 26B A4B
  • • 31B

Google 官方写得很清楚:小模型是 128K 上下文,中大模型是 256K 上下文;同时,Gemma 4 还强化了 system role 支持、function calling、Agent 能力

如果你是第一次在 Mac 上部署,我的建议很直接:

  • • 优先从 E4B 开始
  • • 机器更紧张,就先上 E2B
  • • 想把它当成本地长期主力,再考虑 26B A4B

原因很现实。Google 官方给出的推理内存参考里,Gemma 4 E2B、E4B、26B A4B、31B 的资源需求跨度很大;而且这些数值还会随量化方式和环境变化。对于普通 Mac 用户来说,先跑通、先稳定,比一开始就冲大模型更重要

顺带一提,LM Studio 模型目录也已经收录了 Gemma 4 家族,并把它定位为支持视觉输入、可本地部署的模型系列。


三、第一部分:在 Mac 上用 LM Studio 部署 Gemma 4

第 1 步:在 LM Studio 里搜索并下载 Gemma 4

LM Studio 安装完成后,到 Discover页搜索模型并下载。Gemma 4 已经在 LM Studio 的模型目录中。

你可以优先搜索并下载:

  • • Gemma 4 E4B
  • • 或者更轻量的 Gemma 4 E2B

第一次部署,建议先从 E4B开始。


第 2 步:把模型加载到内存中

下载完成,不等于模型已经可以被 API 调用。
LM Studio 官方区分了“模型已下载”和“模型已加载”这两个状态;只有模型加载到内存里,才能真正参与推理。

如果你主要用 GUI,操作上很简单:

  1. 1. 打开 LM Studio
  2. 2. 进入聊天或开发者相关页面
  3. 3. 选择刚下载好的 Gemma 4
  4. 4. 确保它已经处于已加载状态

如果你习惯命令行,也可以使用 lmsCLI。LM Studio 官方文档列出了 lms lslms pslms load等命令来查看和管理本地模型。


第 3 步:启动 LM Studio 的本地 API Server

这一步是整个链路能否打通的关键。

你可以在 Developer页打开 Start server

也可以在终端里执行:

lms server start

这条命令会启动 LM Studio 的本地 HTTP API 服务。

第 4 步:先在 Mac 本机测试 API 是否正常

LM Studio 官方提供了 OpenAI-compatible 接口,其中一个最直接的测试入口是:

curl http://localhost:1234/v1/models

官方文档说明,GET /v1/models会返回当前服务器可见的模型列表。

如果你能看到模型列表,说明服务已经正常启动。

接着再做一次聊天测试:

curl http://localhost:1234/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "把这里替换成你在 /v1/models 里看到的模型 ID",
    "messages": [
      {"role": "user", "content": "请用三句话介绍一下你自己"}
    ],
    "temperature": 0.7
  }'

四、第二部分:让另一台电脑能访问这台 Mac 上的 LM Studio

默认情况下,很多人只在本机调用模型。
但如果你要让 另一台电脑上的 OpenClaw也能用,就必须让 LM Studio 的 API 服务对局域网可见。

第 5 步:打开 “Serve on Local Network”

启用 Serve on Local Network后,LM Studio 的 API server 就会对同一局域网内的其他设备开放访问。启用之后,服务会绑定到你的局域网 IP,而不再只是 localhost

操作上就是:

  1. 1. 打开 LM Studio
  2. 2. 进入 Developer
  3. 3. 打开 Start server
  4. 4. 再打开 Serve on Local Network

这一步做完之后,你这台 Mac 就不只是“本机能聊”,而是已经开始具备“局域网模型服务器”的角色了。


第 6 步:确认 Mac 的局域网地址

或者在 Mac 终端里执行:

ipconfig getifaddr en0

如果你当前连接的是常规 Wi-Fi,通常会得到一个类似这样的地址:

192.168.1.23

那么这台机器的 LM Studio 接口地址通常就会变成:

http://192.168.1.23:1234/v1

基准地址是 http://localhost:1234/v1;打开局域网服务后,只是把 localhost换成你的局域网 IP。


第 7 步:从另一台电脑先做连通性测试

在另一台电脑上执行:

curl http://192.168.1.23:1234/v1/models

只要它能返回模型列表,说明网络已经打通。
这一步非常重要,因为它能帮你在接 OpenClaw 之前,先把“网络问题”和“OpenClaw 配置问题”分开。


五、第三部分:在另一台电脑上安装 OpenClaw

第 8 步:安装 OpenClaw

在另一台电脑上执行:

curl -fsSL https://openclaw.ai/install.sh | bash

安装完成后,执行初始化:

openclaw onboard --install-daemon

这一步主要是把 OpenClaw 的基础运行环境装好。
如果你已经熟悉 OpenClaw,也可以直接进入配置阶段。


六、第四部分:把 OpenClaw 指向 Mac 上的 LM Studio

OpenClaw 连接 LM Studio 时,应该按 OpenAI-compatible provider 来配置

  • • baseUrl指向 http://192.168.1.23:1234/v1
  • • apiKey可以写占位值
  • • api使用 openai-responses
  • • model.primary写成 lmstudio/你的模型ID

第 9 步:先查出 LM Studio 暴露出来的真实模型 ID

这一点不要偷懒,最好以实际接口返回结果为准。

执行:

curl http://192.168.1.23:1234/v1/models

然后找到你的 Gemma 4 模型对应的 实际模型 ID


第 10 步:编辑 ~/.openclaw/openclaw.json

你只需要把 YOUR_LMSTUDIO_MODEL_ID替换成实际模型 ID,把 IP 换成你的 Mac 地址即可。

{
  "agents"
: {
    "defaults"
: {
      "model"
: {
        "primary"
: "lmstudio/YOUR_LMSTUDIO_MODEL_ID"
      },
      "models"
: {
        "lmstudio/YOUR_LMSTUDIO_MODEL_ID"
: {
          "alias"
: "Gemma 4 Local"
        }
      }
    }
  },
  "models"
: {
    "mode"
: "merge",
    "providers"
: {
      "lmstudio"
: {
        "baseUrl"
: "http://192.168.1.23:1234/v1",
        "apiKey"
: "lmstudio",
        "api"
: "openai-responses",
        "models"
: [
          {
            "id"
: "YOUR_LMSTUDIO_MODEL_ID",
            "name"
: "Gemma 4 Local",
            "reasoning"
: false,
            "input"
: ["text"],
            "cost"
: {
              "input"
: 0,
              "output"
: 0,
              "cacheRead"
: 0,
              "cacheWrite"
: 0
            },
            "contextWindow"
: 131072,
            "maxTokens"
: 8192
          }
        ]
      }
    }
  }
}

这里最重要的是四件事:

  1. 1. primary写成 lmstudio/模型ID
  2. 2. baseUrl指向你的 Mac:http://局域网IP:1234/v1
  3. 3. api写成 openai-responses
  4. 4. id要和 /v1/models返回的真实模型 ID 一致

context Length怎么写?

如果你用的是:

  • • Gemma 4 E2B / E4B:可以先按 131072
  • • Gemma 4 26B A4B / 31B:可以按 262144

因为 Google 官方给 Gemma 4 的上下文说明就是:小模型 128K,中大模型 256K。


七、第五部分:验证 OpenClaw 是否已经接上 Gemma 4

第 11 步:先看模型是否被识别

执行:

openclaw models list

如果你的 provider 配置无误,它应该能识别出刚才配置的本地模型。OpenClaw 的模型体系支持通过 models.providers注入自定义 provider 和模型元数据。

如果需要,也可以把默认模型切过去:

openclaw models set lmstudio/YOUR_LMSTUDIO_MODEL_ID

第 12 步:直接跑一轮测试对话

你可以直接在命令行里测试:

openclaw agent --message "请用中文介绍一下 Gemma 4 的主要特点"

或者打开 OpenClaw 的 Dashboard 进行可视化测试。
只要能正常回复,就说明整条链路已经通了:

OpenClaw(另一台电脑) → LM Studio(Mac) → Gemma 4(本地运行)


八、最容易踩的 5 个坑

1. 只下载了模型,但没有加载进内存

这是最常见的问题之一。
下载成功 ≠ 可被 API 调用。

如果 /v1/models看不到它,先回到 LM Studio 确认模型是否已经加载。


2. 忘了打开 “Serve on Local Network”

如果你没打开这个选项,另一台电脑基本连不上。
因为默认情况下,服务可能只对本机可见。LM Studio 官方明确说明,开启后才会绑定到局域网地址。


3. OpenClaw 里漏写了 /v1

这里和 Ollama 正好相反。
LM Studio 这条路,OpenClaw 应该对接的是 OpenAI-compatible /v1接口,所以地址要写成:

http://192.168.1.23:1234/v1

而不是只写到 :1234


4. 手写了一个想象中的模型 ID

最稳妥的做法只有一个:

curl http://192.168.1.23:1234/v1/models

然后以实际返回值为准。
OpenClaw 官方示例里的 my-local-model只是占位写法,不是固定字符串。


5. 一上来就用 26B 或 31B,结果 Mac 压力太大

Google 官方给出的内存需求表已经说明了,Gemma 4 不同版本的资源需求差异很大。
对大多数人来说,E4B 是更适合拿来先跑通链路的版本


九、我更推荐的实战路线

如果你现在的目标是:

  • • 先把链路跑通
  • • 先让 OpenClaw 稳定接上 Gemma 4
  • • 先验证中文问答、轻量 agent 和本地工作流

那我更建议你这样起步:

Mac:          LM Studio + Gemma 4 E4B
另一台电脑:   OpenClaw
连接方式:      局域网 / Tailscale
Provider:     OpenAI-compatible /v1

等你确认这套方案已经稳定,再逐步升级到 26B A4B

这个顺序更务实,也更符合本地部署的真实体验:
先稳定,再变强。


十、写在最后

很多人折腾本地模型,最终都会遇到同一个问题:

“我不只是想在这台电脑上聊几句,我是想把它变成我自己的 AI 基础设施。”

而 LM Studio + Gemma 4 + OpenClaw,刚好就是一个很适合入门、同时也有升级空间的组合:

  • • Gemma 4提供模型能力
  • • LM Studio负责本地加载和 API 服务
  • • OpenClaw负责把它变成可调用、可扩展的 agent 入口

它不一定是“最极致”的方案,但它很可能是最适合个人和小团队上手的一条路。

如果你更看重的是:

  • • 数据尽量留在本地
  • • 设备之间可以互相调用
  • • 后续还能继续接工具、接工作流、接自动化

那这套方案,值得你认真搭一次。


如果你也在用 LM Studio 跑本地模型,不妨照着这篇把链路打通一次。当你的 Mac 不再只是“本地聊天工具”,而是开始变成一台可被其他设备调用的 AI 服务器

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询