微信扫码
添加专属顾问
 
                        我要投稿
如何在游戏本上成功部署GPT-OSS-120B大模型?实测64G显存即可流畅运行,打破官方80G要求。 核心内容: 1. 游戏本硬件配置与显存分配技巧 2. LM Studio部署流程与模型下载实测 3. 不同推理强度效果对比与Runtime选择策略
 
                                
今天 ,OpenAI 开源了俩模型:120B/20B
117B 的 gpt-oss-120b 对标 o4-min,按官方说法至少需要 80G 内存,推荐使用单卡 H100 GPU
而刚买的的游戏本,刚好满足gpt-oss-120b 的部署条件
这里面是 AMD 的 395+ & 8060s(非常 YES),128G 统一内存
(说上面这些,就是来炫耀下我的本子)
(略略略~)
在测试后,发现部署 oss 并不需要 80G 显存,64G 就够了
以下是详细的部署
以及:并不需要 80G 显存,64G 就够了
OpenAI 为 gpt-oss 系列模型,提供了完善的私有化部署支持,使用原生MXFP4量化,极大的降低了显存的使用
在工具层面,支持多种主流部署方法,包括: Transformers、vLLM、PyTorch / Triton、Ollama、LM Studio
这里,我用的是 LM Studio,可以在官网进行下载安装
进入 LM Studio 之后,可以直接搜索 gpt-oss-120b 并下载
模型较大,有几十个G,下载要一点时间
模型下完后,还无法立即运行
虽说是统一内存,但默认分给显卡的,只有4G(剩下的全部算显存了)
明显不满足条件,需要手工修改一下内存分配
这里我把 64G 内存分配给了显存
(并不需要宣称的 80G)
完成后,点击 LM Studio 中的「载入模型」
模型顺利载入,显示部署成功
OpenAI 这模型,可选多种推理强度,包括“低”、“中”、“高”
询问单词「strawberry」包含几个字母「r」:
低强度模式:约需10秒
高强度模式:耗时约1分钟
这个模型还支持更多的工具调用,比如可以自行配置 MCP
在部署中,也有两个细节问题,分享如下:
LM Studio 提供了多种 Runtime 选项,包括 CUDA、Vulkan、ROCm llama.cpp、CPU llama.cpp 等
我使用的是 AMD 平台,显然无法使用 NVIDIA 的 CUDA 加速
理论上,ROCm 更适合 AMD,但目前尚未支持 OpenAI 最新的 gpt-oss 系列模型
最终,我选择了 Vulkan 作为 runtime。这是一个跨平台的通用加速方案,且在最新版本的 LM Studio 中已经对 OpenAI 的 oss 做了适配
而 CPU llama.cpp 显然不是首选,毕竟这是 CPU 的
最开始的时候,我把显存分配拉高到 96GB,但这导致模型载入失败
仔细排查了下,发现模型载入过程本身还需要约 40G 的内存
所以,这里推荐将显存分配设为 64GB,能保证完美运行
其一、OpenAI 的量化,是贴心的
其二、AMD,Yes!
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-10-31
有人问我会不会用 AI,我直接拿出这个 Ollama + FastGPT 项目给他看
2025-10-30
开源可信MCP,AICC机密计算新升级!
2025-10-30
OpenAI 开源了推理安全模型-gpt-oss-safeguard-120b 和 gpt-oss-safeguard-20b
2025-10-29
刚刚,OpenAI 再次开源!安全分类模型 gpt-oss-safeguard 准确率超越 GPT-5
2025-10-29
AI本地知识库+智能体系列:手把手教你本地部署 n8n,一键实现自动采集+智能处理!
2025-10-29
n8n如何调用最近爆火的deepseek OCR?
2025-10-29
OpenAI终于快要上市了,也直面了这23个灵魂拷问。
2025-10-29
保姆级教程:我用Coze干掉了最烦的周报
 
            2025-08-20
2025-09-07
2025-08-05
2025-08-20
2025-08-26
2025-08-22
2025-09-06
2025-08-06
2025-10-20
2025-08-22
2025-10-29
2025-10-28
2025-10-13
2025-09-29
2025-09-17
2025-09-09
2025-09-08
2025-09-07