智通财经APP获悉,4月29日 ,腾讯混元推出极致量化压缩版本翻译模型 Hy-MT1.5-1.8B-1.25bit,把支持 33 种语言的翻译大模型压缩至 440MB,无需联网 ,下载即可直接在手机本地运行,翻译质量优于谷歌翻译。

基于混元翻译大模型Hy-MT1.5打造,翻译效果比肩商用翻译模型

Hy-MT1.5 是腾讯混元团队打造的专业翻译大模型 ,原生支持 33 种语言 、5 种方言/民汉及 1056 个翻译方向 。从常见的中英互译,到法语、日语、阿拉伯语 、俄语,甚至藏语、蒙古语等少数民族语言,它都能游刃有余地处理。
仅以 1.8B 参数量 ,Hy-MT1.5 实现了比肩商业翻译 API 和 235B 级大模型的翻译效果 。在严格的评测基准中,其翻译质量不仅超越了谷歌翻译等主流系统,更证明了在高效优化下 ,轻量级模型能够迸发出令人印象深刻的翻译能力 。
最极致的量化压缩,把模型装进手机
量化压缩,简单来说就是:把模型里原本用16位数字(16-bit)表示的参数转用更低位数字储存。这就像把一幅高清照片压缩成缩略图 ,文件小了很多,但你还是能看清楚里面的内容。 针对不同的手机用户,腾讯特别推出了2-bit 与 1.25-bit 两种极致的量化压缩方案 。
不同大小的模型在FLORES-200中外互译的效果评分
2-bit模型:性能与质量的平衡(适用:中高端机型)
2-bit 模型采用了业内顶尖的拉伸弹性量化(SEQ) ,将模型参数量化至{-1.5,-0.5,0.5 ,1.5},并结合量化感知蒸馏,在将模型体积压缩至 574MB 的同时,实现了几乎无损的翻译质量 ,效果超越上百GB的大模型。在支持 Arm SME2 技术的移动设备上,2-bit 模型能够实现更快速、更高效的推理。
1.25-bit模型:Sherry 极致压缩(适用:全系机型)
为了达成极致的轻量化,腾讯推出了基于 Sherry(稀疏高效三值量化) 技术的 1.25-bit 模型。该技术方案已经被NLP顶级学术会议ACL 2026录用 。
Sherry 压缩方案的核心逻辑在于“细粒度稀疏 ”策略:每4个模型参数 ,3个最重要的用 1-bit 储存,1个用0储存,平均每个参数仅需 1.25-bit。
配合腾讯专门为手机 CPU 设计的 STQ内核 ,该方案实现了对 SIMD 指令集的完美适配。最终,3.3GB 的原始模型被进一步压缩至 440MB,轻松常驻后台 ,让内存紧张的普通手机也能顺滑进行高质量离线翻译 。
本次开源不仅包含模型权重,还特别制作了一个实际可用的腾讯混元翻译Demo版,特别适配了“后台取词模式”。无论是在本地查看邮件还是浏览网页 ,混元翻译都能随叫随到。无需网络,无需订阅,完全本地处理 、不涉及个人信息的采集和上传,一次下载永久使用 。








