智谱GLM-5震撼发布,昇腾AI全力支持!

智谱GLM-5震撼发布,昇腾AI全力支持!

2026年2月12日,智谱AI正式发布了其最新开源模型GLM-5,标志着Agentic Engineering时代的到来。这一模型以744B的超大参数规模,进一步提升了从“写代码”到“写工程”的能力,不仅在编程领域取得了开源SOTA表现,更在复杂系统工程与长程Agent任务中展现了卓越的性能。

GLM-5的发布引起了业界的广泛关注,特别是在Coding与Agent能力方面,其性能与Claude Opus 4.5相媲美,尤其是在真实编程场景中的使用体验得到了显著提升。昇腾AI作为智谱GLM系列模型的长期支持者,迅速实现了对GLM-5的0day适配,为其推理部署和训练复现提供了全面支持。

在参数规模方面,GLM-5的预训练数据从23T提升至28.5T,模型的通用智能水平得到了显著提升。特别是异步强化学习的引入,使得GLM-5能够更高效地处理复杂的强化学习任务,提升了模型的训练效率。此外,GLM-5首次集成了DeepSeek Sparse Attention机制,在保智谱 AI GLM 教程持长文本效果的同时,大幅降低了模型的部署成本,提升了Token的使用效率。

在Coding能力方面,GLM-5在SWE-bench-Verified和TerminalBench2.0中分别获得77.4和55.7的开源模型最高分数,超越了Gemini 3.0 Pro。在Agent能力方面,GLM-5在多个Agent测评基准中表现优异,尤其是在BrowseComp、MCP-Atlas和τ²-Bench等复杂任务中取得了最佳成绩。

更值得一提的是,GLM-5在VendingBench2中的表现也十分出色,模拟经营自动售货机的业务时,最终账户余额达到了4432美元,展现了其出色的长期规划和资源管理能力。这些能力不仅展示了GLM-5作为Agentic Ready基座模型的潜力,更为未来智能体的发展奠定了基础。

昇腾AI在GLM-5的推理部署中采用了W4A8混合精度量化,显著减少了显存占用,并加速了解码过程。GLM-5作为78层的decoder-only大模型,结构设计上将DenseFFN与MoE(路由专家+共享专家)相结合,自带MTP(Multi-Token Prediction)加速解码过程。这一创新的结构设计使得GLM-5在推理执行的效率上得到了极大的提升。

此外,昇腾AI还推出了MsModelSlim量化工具,使得GLM-5的量化过程变得更加简单。一键即可完成“预处理+子图融合+分层线性量化”的完整流水线,用户只需简单的命令行操作即可实现高效的模型量化。

总之,智谱GLM-5的发布标志着AI模型发展的新高度,结合昇腾AI的强大支持,将为未来的智能应用带来更多可能。无论是在编程、系统工程,还是在复杂任务的执行上,GLM-5都展现出了超乎想象的潜力与表现,值得每一个AI爱好者和开发者关注和探索。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:Ai探索者,转载请注明出处:https://javaforall.net/265937.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月12日 下午7:28
下一篇 2026年3月12日 下午7:28


相关推荐

关注全栈程序员社区公众号