腾讯混元图像 3.0 图生图模型发布,一句话就能 P 图

腾讯混元图像 3.0 图生图模型发布,一句话就能 P 图

1 月 27 日消息,腾讯混元(1 月 26 日)发布混元图像 3.0 图生图(HunyuanImage 3.0-Instruct)模型,支持图片编辑与多图融合,并在「元宝」同步上线,用户可直接在元宝全端和在腾讯混元官网体验。

元宝 混元 Hunyuan 教程腾讯混元图像 3.0 图生图模型发布,一句话就能 P 图

混元图像 3.0 图生图总参数量 80 亿(激活参数约 13 亿),采用混合专家(MoE)架构,基于混元图像 3.0 的原生多模态架构基础模型,引入图生图的多任务数据,通过指令微调和后训练,实现了对用户输入图像和编辑指令的深度理解与处理。

混元图像 3.0 图生图是一款能理解输入图像、会思考的图像编辑模型。模型在收到用户输入的图片和提示词后,首先会先理解图像内容本身,并基于用户的提示词进行推理,推理出具体的需要进行编辑的区域、详细的编辑步骤以及需要保留的图像区域,形成更加详细的编辑指令,实现更好的输出效果。

混元图像 3.0 图生图支持多样化的图片编辑与多图融合能力,比如增、删、改、风格变换、老照片修复、人物与文字修改等图片编辑能力,以及把多张照片中的人物或元素提取出来合成合照与生成新图片等。

在元宝上,基于该模型用户可以直接制作表情包、虚拟人物合拍、社交分享、电商海报设计、游戏角色定制、创意图片制作等。

在数据层面,混元团队通过图像、视频原始数据挖掘和专家网络合成的方式,构建了千万量级的图生图数据,覆盖 80+ 任务,并在持续训练(CT)阶段注入这些数据,使模型掌握基础编辑功能;同时,混元团队进一步针对图生图数据构造了思维链,让模型学会先分析用户图像和意图,输出更加详细的编辑指令提升编辑效果。

后训练阶段,混元图像 3.0 图生图采用自研 MixGRPO 算法,结合奖励模型多轮迭代,对齐用户偏好,提升了指令响应和非编辑区域保持一致的效果。

1AI附体验入口如下:

https://hunyuan.tencent.com/chat/HunyuanDefault?from=modelSquare&modelId=Hunyuan-Image-3.0-Instruct

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:Ai探索者,转载请注明出处:https://javaforall.net/261625.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月12日 下午11:19
下一篇 2026年3月12日 下午11:20


相关推荐

关注全栈程序员社区公众号