微信扫码
添加专属顾问
我要投稿
腾讯推出无需联网的翻译大模型,手机本地即可运行,解决关键时刻的翻译难题。核心内容:1. 腾讯混元翻译模型支持33种语言,无需联网即可本地运行2. 通过极致量化压缩技术,将模型体积大幅缩小3. 模型翻译质量超越谷歌翻译,速度与效果兼备
设想一下:
你在异国自驾,警笛声骤然响起。还没回过神,警察就在窗边用陌生的语言严厉发问。你心跳漏了半拍:是我违章了?还是前面出了什么大事?你手忙脚乱地掏出手机想翻译询问一下,偏偏此时没信号,屏幕上转圈的界面简直让人绝望。到底发生了什么?我应该挪车,下车还是掉头?
在这关键时刻,翻译软件掉链子真的让人绝望。
针对这些难题,腾讯混元团队带来了一份硬核解决方案。
最近,腾讯混元推出极致量化压缩版本翻译模型 Hy-MT1.5-1.8B-1.25bit,把支持 33 种语言的翻译大模型压缩至 440MB,无需联网,下载即可直接在手机本地运行,翻译质量优于谷歌翻译。
来看看这个演示,翻译速度真的很快,质量也很好:
演示设备:高通骁龙 865,8GB内存
基于混元翻译大模型Hy-MT1.5打造,翻译效果比肩商用翻译模型
Hy-MT1.5 是腾讯混元团队打造的专业翻译大模型,原生支持 33 种语言、5 种方言/民汉及 1056 个翻译方向。从常见的中英互译,到法语、日语、阿拉伯语、俄语,甚至藏语、蒙古语等少数民族语言,它都能游刃有余地处理。
仅以 1.8B 参数量,Hy-MT1.5 实现了比肩商业翻译 API 和 235B 级大模型的翻译效果 。在严格的评测基准中,其翻译质量不仅超越了谷歌翻译等主流系统,更证明了在高效优化下,轻量级模型能够迸发出令人印象深刻的翻译能力。
Hy-MT1.5-1.8B翻译效果评分,详情见文末链接「Hy-MT1.5技术报告」
但问题来了:原始的 1.8B 模型即使在 FP16 精度下,依然占用 3.3GB 内存。对于手机上金子般的内存来说,依然太大、太慢,所以需要量化压缩。
最极致的量化压缩,把模型装进手机
量化压缩,简单来说就是:把模型里原本用16位数字(16-bit)表示的参数转用更低位数字储存。这就像把一幅高清照片压缩成缩略图,文件小了很多,但你还是能看清楚里面的内容。 针对不同的手机用户,腾讯特别推出了2-bit 与 1.25-bit 两种极致的量化压缩方案。
不同大小的模型在FLORES-200中外互译的效果评分
2-bit 模型采用了业内顶尖的拉伸弹性量化(SEQ),将模型参数量化至{-1.5,-0.5,0.5,1.5},并结合量化感知蒸馏,在将模型体积压缩至 574MB 的同时,实现了几乎无损的翻译质量,效果超越上百GB的大模型。在支持 Arm SME2 技术的移动设备上,2-bit 模型能够实现更快速、更高效的推理。
2-bit模型在SME2及Neon内核的速度对比演示
为了达成极致的轻量化,腾讯推出了基于 Sherry(稀疏高效三值量化) 技术的 1.25-bit 模型。该技术方案已经被NLP顶级学术会议ACL 2026录用。
链接:https://arxiv.org/abs/2601.07892
Sherry 压缩方案的核心逻辑在于“细粒度稀疏”策略:每4个模型参数,3个最重要的用 1-bit 储存,1个用0储存,平均每个参数仅需 1.25-bit。
配合腾讯专门为手机 CPU 设计的 STQ内核,该方案实现了对 SIMD 指令集的完美适配。最终,3.3GB 的原始模型被进一步压缩至 440MB,轻松常驻后台,让内存紧张的普通手机也能顺滑进行高质量离线翻译。
FP16(八倍速)vs.1.25bit速度对比,演示设备:高通骁龙888, 8GB内存
实际体验:全离线、零成本、零隐私暴露
本次开源不仅包含模型权重,我们还特别制作了一个实际可用的腾讯混元翻译Demo版,特别适配了“后台取词模式”。无论是在本地查看邮件还是浏览网页,混元翻译都能随叫随到。无需网络,无需订阅,完全本地处理、不涉及个人信息的采集和上传,一次下载永久使用!
演示设备:高通骁龙7+gen2,16GB内存
立即体验
所有的模型权重、代码及技术报告均已全面开源。(暂时只支持安卓体验demo, 后续正式版会添加对IOS等平台的支持。)
体验链接:
Huggingface(海外用户):https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-1.25bit-GGUF/resolve/main/Hy-MT-demo.apk
魔搭社区(国内用户):https://modelscope.cn/models/AngelSlim/Hy-MT1.5-1.8B-1.25bit-GGUF/resolve/master/Hy-MT-demo.apk
模型下载
1、Huggingface(海外用户):
2-bit模型权重:https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-2bit
2-bit 模型gguf:https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-2bit-GGUF
1.25-bit模型权重:https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-1.25bit
1.25-bit 模型gguf:https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-1.25bit-GGUF
2、魔搭社区(国内用户):
2-bit 模型权重:https://modelscope.cn/models/AngelSlim/Hy-MT1.5-1.8B-2bit
2-bit 模型gguf:https://modelscope.cn/models/AngelSlim/Hy-MT1.5-1.8B-2bit-GGUF
1.25-bit 模型权重:https://modelscope.cn/models/AngelSlim/Hy-MT1.5-1.8B-1.25bit
1.25-bit 模型gguf:https://modelscope.cn/models/AngelSlim/Hy-MT1.5-1.8B-1.25bit-GGUF
3、技术报告:
Sherry论文地址:https://arxiv.org/abs/2601.07892
AngelSlim 技术报告:https://arxiv.org/abs/2602.21233
Hy-MT1.5技术报告:https://arxiv.org/abs/2512.24092
4、代码仓库:
AngelSlim: https://github.com/tencent/AngelSlim
欢迎下载体验,分享你的使用感受~
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-05-15
在手机上用Codex写一下午代码,说实话,有点上头。
2026-05-15
谷歌Android重大更新!底层植入Gemini,苹果已掉队
2026-05-15
Codex更新远程控制,你也终于可以在手机上随时随地Vibe Coding了。
2026-05-15
2026年了,我强烈推荐你用一用Codex,功能太全面了!附使用指南
2026-05-14
DAA度量Agent,百度智能云率先重构AI云
2026-05-14
美团 LongCat 开源 General 365:树立推理评测新标尺
2026-05-14
终端里住进了一个叫 Claude Code 的搭档
2026-05-14
小企业专属Claude来了!一键接入全套业务流,不用写代码AI自动算账催款
2026-04-15
2026-03-31
2026-03-13
2026-04-07
2026-03-17
2026-03-17
2026-04-07
2026-03-21
2026-02-20
2026-04-24
2026-05-09
2026-05-09
2026-05-09
2026-05-08
2026-05-07
2026-04-26
2026-04-22
2026-04-18