测完 GLM-5 我沉默了:国产开源模型什么时候这么能打了?

测完 GLM-5 我沉默了:国产开源模型什么时候这么能打了?

大家好,我是孟健。智谱刚发布了新一代旗舰模型 GLM-5,我第一时间上手测了测,跟大家聊聊真实感受。

先说结论:工程能力已经站到了 Opus 同一梯队,某些场景甚至更舒服。这是我第一次对国产编程模型说出能打两个字。

看看评测截图,综合能力已经非常接近 Claude Opus 4.5,部分维度甚至持平。

01 这个模型是什么

GLM-5 是智谱刚发布的新一代旗舰模型。参数规模 744B(激活 40B),预训练数据 28.5T。发布前在海外开发者社区已经引发了不少讨论,不少人评价它的代码能力接近 Claude Opus 4.5。

用 Claude Code 接入 GLM-5,直接在熟悉的工作流里测试。

这次的定位很明确——不卷前端炫技,卷后端工程能力。744B 参数(激活 40B),28.5T 预训练数据,代号 Pony Alpha,发布前就在海外开发者圈子里炸智谱 AI GLM 教程了。

我比较好奇的是,它到底能不能在真实开发场景里站住脚。

所以设计了四个测试,从前端到后端到运维,逐个过。

02 测试一: 测试前端 UI 展示

提示词:

访问 https://chat.z.ai/

虽然等待时间比 Opus 长一些(推理模型嘛,思考深度换时间),但输出质量让我挺惊喜。

经过 15 分钟,其中还自动修了 2 次 bug,最终效果如上。说实话,比我预期好不少。

0 3 测试 二 :从零搭后端系统

任务:用 Node.js + SQLite 搭一个 API Key 管理系统,包含创建/撤销/验证 Key、鉴权中间件、频率限制、错误处理、Docker 配置。

这类任务是区分”写代码”和”做工程”的分水岭。

GLM-5 的表现让我真的沉默了——它没有上来就糊代码,而是先输出了一个完整的架构规划。分层目录、技术选型理由、文件职责划分都交代清楚了。

分别让我确认每一步设置,而不是上来就干。这个工程习惯,比很多真人开发者都强。

项目位置:

限流策略

最后提交

代码结构

制定计划

数据库表设计

核心功能实现

有几个细节让我印象深刻:

唯一可以优化的地方:一次性输出的代码量很大,如果能加入分步验证会更完美。不过就完成度来说,一次生成 10+ 个文件、项目结构完整、直接能跑——我用 Opus 做类似任务,也就这个水平了。

0 4 测试 三 :Debug 真实报错

第一个例子启动报错,直接问 GLM-5:

这是我自己当时踩过的坑,搜了不少资料才搞定的。

GLM-5 的分析路径非常清晰:第一个方案定位到占用 3000 端口的进程并给出关闭命令;第二个方案直接改用其他端口。

两个方案都是对的。没有瞎猜,没有给一堆你可以试试的废话。直接定位,直接给方案。

这个能力对不熟悉运维的小伙伴来说太实用了——看见黑窗口报错不用慌,直接问就行。

0 5 测试 四 :自动化部署方案

让它设计一个全栈应用(Next.js + Express + PostgreSQL)到 Ubuntu 服务器的自动化部署方案,从环境准备到 SSL 配置全覆盖。

输出的是一个完整的 Shell 脚本,带颜色日志、每步成功/失败判断、错误回退。这不是教程级别的伪代码,是真能往服务器上跑的生产脚本。

还能输出部署架构图,对全栈部署的理解很到位!

值得注意的是:智谱在宣传里说 GLM-5 可以在数百次工具调用后保持连贯。我这次测试只是冰山一角,更复杂的长程 Agent 场景值得期待。

0 6: 几个真实的不足

客观说说还可以优化的地方:

速度可以更快。作为推理模型,一个中等复杂度的请求要等 30-60 秒。不过思考深度和输出质量摆在这里,这个取舍是值得的。而且智谱在持续优化推理速度,这个问题相信很快会改善。

工具链生态在快速完善。智谱已经提供了 Anthropic API 兼容层,可以接入 Claude Code 等主流工具。API 直接调用已经非常稳定,开源生态意味着更大的可能性——社区适配只是时间问题。

开源带来的想象空间。和闭源模型不同,GLM-5 的开源意味着可以私有化部署、可以微调、可以嵌入自己的工具链。这对企业用户来说是巨大的吸引力。

中等难度已经很稳了,期待后续测一些更硬核的场景——重构万行遗留系统、从零写编译器这种级别的挑战。

0 7: 怎么看这件事

抛开模型本身,我觉得更值得关注的趋势是:编程大模型正在从能写代码跨到能做工程。

Opus 4.6 在做这个,GPT-5.3-Codex 在做这个,现在 GLM-5 也在做这个。区别是 GLM-5 开源,跑在国产芯片上,成本低一个量级。

其实回头看,国产大模型在好几个方向上已经不是追赶了。Seedance 2.0 在 AI 视频生成上已经是全球第一梯队,海外用户的口碑非常好。现在 GLM-5 在 AI Coding 方向上也站到了同一梯队。视频生成和代码生成,AI 落地最重要的两个航道,国产模型都已经站到了牌桌上。

现在我的日常编程任务已经开始切到 GLM-5 了。中等复杂度的工程任务、Debug、部署脚本——GLM-5 接得稳稳的,省下来的 API 费用相当可观。

如果你还没试过国产编程模型,GLM-5 绝对值得放进你的工具箱。它可能会让你重新认识国产大模型这五个字。

0 8: 怎么用

开源、国产芯片、Opus 级能力——这三个词放在一起,就是 2026 年 AI 编程最大的变量。GLM-5 不是在追赶,是在开辟另一条路。


📚 精选文章推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:Ai探索者,转载请注明出处:https://javaforall.net/271344.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月12日 下午2:10
下一篇 2026年3月12日 下午2:10


相关推荐

关注全栈程序员社区公众号