当大模型翻译越来越没有人味,腾讯混元闷声干了件大事儿

   2025-09-16 kongyu920
核心提示:翻译这件事儿,自从有了通用的大语言模型之后似乎就变得没那么重要了。毕竟对大部分人来说,以GPT、、Gemini 之类的能力随手翻译
翻译这件事儿,自从有了通用的大语言模型之后似乎就变得没那么重要了。
毕竟对大部分人来说,以GPT、、Gemini 之类的能力随手翻译个文章,报告什么的,真的信手拈来,大差不差看着也就行了。 
但,腾讯不这么认为。
它们在上周开源了专门的翻译模型, Hunyuan-MT 系列,包括了 Hunyuan-MT-7B 和 Hunyuan-MT-Chimera-7B,其中 Hunyuan-MT-7B 更是在 WMT2025 比赛上拿下了全部 31 个语种比赛中的 30 个第 1 名。而且这个开源模型在 Huggingface 的热榜上排在了第一的位置。
图片
这里非常离谱的是,大部分的通用模型在这样一个专有场景里可能还真的做不到这一个成绩,因为除了中文、英文、日文等这些非常主流的语言之外,这个世界上还充斥着各种其他语种国家,比如什么捷克语、马拉地语、爱沙尼亚语等等,而这些语种因为训练语料的关系,绝大多数的大模型公司并不会去专门准备大量语料训练模型这部分的能力。 
但很多企业的海外业务里,这又是一个非常迫切的需求。比如我自己业务中就曾经做过印尼语,越南语,尼泊尔语与中文的互相翻译。当时用 gpt、deepseek 做的真的非常痛苦,被领导一顿乱批,说翻译的乱七八糟,既不准确,也不有人味儿。
所以,腾讯其实是做了一件非常有需求,但是场景非常非常垂直、且微小的好事儿。
这个模型已经在它们的网站上可以使用了,地址在这: 
https://hunyuan.tencent.com/modelSquare/home/list 
根据我自己的体验,我觉得这个模型最大的特点就是说人话
我举个例子,经常看AI 领域的英文内容的话,肯定会在论文、博客中看到 model response 这个词,大部分的大模型会给你翻译成“模型响应“,我真的巨讨厌这样翻译,什么叫模型的响应,这响应是人说的话么。。。 
但是腾讯的这个模型就做的非常好。比如下面这段文字: 
图片
为了对比下,我也用了别的模型来翻译: 
图片
区别其实还是挺大的。
我的对比模型把 sycophancy 翻译成谄媚性倒是也没错吧,但是总觉得读上去哪里变扭的很,再加上和 response 这个词结合在一起,翻译成谄媚性响应。
我真是要喊救命了,给不懂 AI 的人看,到底啥叫谄媚性响应。
再看看 Hunyuan-MT 这个模型,虽然只有 7B 大小,但它的翻译就真的让人一看就明白。sycophancy 翻译成马屁精行为,response 理解为回答,sycophancy response 是奉承性回答。 
它是真的想让你读懂这段话在说什么。
还有这句话,“无论是人类还是偏好模型(PMs)都更倾向于选择那些写的令人信服的马屁精式回答,而非客观真实回答” 对比一下“人类和偏好模型(PMs)都会更倾向于选择表述有说服力的谄媚性响应,而非正确的响应”。第一个是 Hunyuan-MT,第二个是我找的一个对比的模型,哪个效果更好,一眼就可以看地出吧。
真的不想在看到“表述有说服力的谄媚性响应”这种词汇了,别说不做 AI 的人能不能看的懂,就是我这种天天跟 AI 打交道的人看了,都觉得浑身别扭。
Hunyuan-MT 翻译的内容才是我们应该有的翻译,有人味儿,通俗易懂,又不失准确性。 
7B 的模型大小还有一个好处,就是部署真的特别友好,能够很轻松的本地部署。这也是企业场景中非常强烈的需求,资源消耗尽可能小、效果要尽可能好,数据安全性也要高。
我在我的 128G 内存的 M4 Max 上部署了这个模型,fp16 格式下,速度还是比较快的,而且质量也不错。再量化一下,速度更加起飞。
看下面这个例子: 
图片
每秒 30 个 token,本地完全可用了。而且帮我把这么绕的句子翻译的这么简单易懂,效果上也丝毫不差。
对比一下别的私有模型效果:
图片
我自己是更喜欢 Hunyuan-MT-7b 的这个效果,毕竟我真的是很讨厌这种“命运之线”这种说法,就还是一种不说人话的感觉。
另外,实测 Q8 量化下,速度达到了每秒快 52 个 token 了。
图片
我觉得很多翻译任务真的都可以用 Hunyuan-MT-7B 来代替了,速度和质量都非常到位。
作为一个翻译模型,如果你也在自己电脑上部署了,它就可以支持接入到各种应用中,比如我最常用的沉浸式翻译。

图片

同时打开 LM Studio 和沉浸式翻译,选择自定义 AI,然后输入你自己的 API 接口地址,和模型名称。API 地址和模型名称可以通过下面的方式获取到: 

图片

因为是本地部署的关系,API KEY 其实可以随意输入。这样你就可以很轻松的在沉浸式翻译里用上这个模型。无论是看论文,还是看外文视频都更加方便和省心。
所以,到底什么才是最佳的翻译?
其实每个人的心中可能都有不同的答案。但,不管怎么说,最后都是给人看的,我认为只有能让人一眼看明白的翻译,才是真正的好翻译。
腾讯的 Hunyuan-MT-7B 明显在让人一眼看明白这件事儿上,做到了。不仅如此,它还特别适合在各种场景里部署使用,无论是个人的端侧设备还是企业场景中的使用,对资源的把控都非常好。
它们为了这样一个翻译场景,甚至研究了一个完整的翻译模型的训练范式,从预训练、到增量预训练,再到 SFT,翻译强化和集成强化全链条,使得模型仅用少量的参数就能达到非常不错的效果。
在大家都在追求更大的模型、更强的通用能力的时候,腾讯默默的在一些非常垂直的场景里做着一些工作,虽然可能不会那么耀眼,但又能实实在在真的满足大家的需求。
如果你也对这个模型感兴趣的话,想自己部署试试,下面分别是它们的 HuggingFace 和 GitHub 链接: 
哦对了, 细心的你也一定发现,Huggingface 热榜的前三名,有两名都是来自腾讯。
它们的名字叫混元。
 
举报收藏 0打赏 0评论 0
 
更多>同类资讯
  • kongyu
    加关注0
  • 没有留下签名~~
推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  用户协议  |  隐私政策  |  版权声明  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号