Hunyuan-MT-7B 是由腾讯混元团队于 2025 年 9 月发布的轻量级翻译模型,参数量仅 70 亿,支持 33 个语种及 5 种民汉语言/方言互译。在国际计算语言学协会(ACL)WMT2025 比赛中拿下 31 个语种比赛中的 30 个第 1 名,表现卓越。模型能精准理解网络用语、古诗、社交对话等,结合语境进行意译,提出了覆盖预训练到集成强化全链条的训练范式。推理速度快,经过腾讯自研 AngelSlim 压缩工具处理后,性能进一步提升 30%。
教程链接:go.openbayes.com/okTxc
使用云平台: OpenBayes
openbayes.com/console/sig…
登录首先点击「公共教程」,在公共教程中找到「Hunyuan-MT-7B:翻译模型 Demo」教程。
元宝 混元 Hunyuan 教程
页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。

在当前页面中看到的算力资源均可以在平台一键选择使用。平台会默认选择好原教程所使用的算力资源、镜像版本,不需要再进行手动选择。点击「继续执行」,等待分配资源。


待系统分配好资源,当状态变为「运行中」后,点击「API 地址」边上的跳转箭头,即可跳转至 Demo 页面。
该模型支持 33 个语种及 5 种民汉语言/方言互译,下面我们对模型进行测试。
在「Source Text」中输入想要翻译的语句,在「Target Language」处选择语言,最后点击「Translate」翻译。

发布者:Ai探索者,转载请注明出处:https://javaforall.net/261378.html原文链接:https://javaforall.net
