打破算力垄断:智谱联合华为发布首个全流程国产化多模态大模型 GLM-Image
智谱正式宣布联合华为开源新一代图像生成模型
GLM-Image 。该模型的突破在于,它是首个在国产芯片算力底座上完成从数据预处理到大规模训练全流程的 SOTA(州级水平)多模态模型 。
GLM-Image 采用了创新的“自回归 + 扩散解码器”混合架构,成功实现了图像生成与语言模型的深度融合。这一架构设计让模型在处理“知识密集型”生成任务时表现优异,能够精准理解全局指令并刻画局部细节,有效解决了海报排版、PPT制作及复杂科普图生成等长期困扰 AI 绘画的难题。

GLM-Image 支持在单个模型中同时进行文本到图像和图像到图像的生成。
- 文本转图像:根据文本描述生成高细节图像,在信息密集的场景中表现尤为出色。
- 图像到图像:支持多种任务,包括图像编辑、风格迁移、多主体一致性以及人物和物体的身份保留生成。
在技术指标上,
GLM-Image 展现了极强的中文理解与渲染能力。在多项复杂视觉文本生成榜单中,它均位列开源模型,尤其擅长处理极具挑战性的汉字生成任务。此外,该模型原生支持从1024到2048尺寸的任意比例图像生成,无需额外训练即可自适应多种分辨率。
目前,
GLM-Image 已在
GitHub 和
Hugging Face 等平台全面开源。为了降低使用门槛,其 API 调用价格低至每张图0.1元,智谱方面表示,未来还将推出经过速度优化智谱 AI GLM 教程后的新版本,进一步提升商用性价比。


- GitHub:https://github.com/zai-org/GLM-Image
- Hugging Face:https://huggingface.co/zai-org/GLM-Image
划重点:
- 🇨🇳 国产全栈自研:基于华为昇腾 Atlas800T A2设备与昇思 MindSpore 框架完成全流程训练,验证了国产算力训练模型的可行性。
- 🎨 文图融合突破:采用混合架构,在 LongText-Bench 等长文本渲染榜单中获得开源,大幅提升了汉字与复杂图文的生成准确率。
- 💰 高性价比开源:模型支持多种分辨率自适应生成,并以极低的 API 价格向创作者开放,旨在推动国产认知型生成技术的普及。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。
发布者:Ai探索者,转载请注明出处:https://javaforall.net/267825.html原文链接:https://javaforall.net