智谱带着GML-4.5回来了!国产模型第一,全球模型第三

智谱带着GML-4.5回来了!国产模型第一,全球模型第三

大家好,我是泽安!见字如面~

海外 AI 疯狂涨价、国内 AI 疯狂开源;可喜可贺呀!

就在刚刚,智谱 AI 扔出一颗核弹——GLM-4.5 全面开源,MIT 协议!

  1. 1. 开源!开源!还是开源!

✅ MIT 协议,彻底放开,随智谱 AI GLM 教程便商用!

✅ 发了两个模型:GLM-4.5(355B)和 GLM-4.5-Air(106B),激活参数仅 32B 和 12B,推理成本暴降!

  1. 2. 性能炸裂,国产之光!

🔥 参数量仅 DeepSeek-R1 的 1/2、Kimi-K2 的 1/3,但评测登顶!

 🔥 全球第三!国产第一!开源 SOTA!(就问还有谁?)

  1. 3. 训练数据超豪华!

📊 15 万亿 token 通用预训练 + 8 万亿 token 专项优化(代码、推理、智能体全拉满)

🚀 强化学习加持,推理能力直接起飞!

  1. 4. 价格离谱,便宜到哭!

💰 API 调用价格低至:输入 0.8 元/百万 tokens,输出 2 元/百万 tokens!

 ⚡ 生成速度高达 100 tokens/秒,丝滑如德芙!

  1. 5. 编程实测碾压同行!

💻 Agentic Coding 盲评测试,52 个任务国内最佳!

 🚀 在大部分场景中可以平替 Claude-4-Sonnet,碾压了 Kimi-K2、Qwen3-Coder!

  1. 6. 未来王炸组合?GLM-4.5 + Claude Code!

🤖 智谱+Claude,可能是未来最具性价比的 AI 编程搭档!

  1. 7. 普通用户免费用!

🎁 z.ai 直接白嫖,不要钱!https://chat.z.ai

综合平均分,GLM-4.5 取得了全球模型第三、国产模型第一,开源模型第一。

体验地址:https://chat.z.ai

闲话少叙!实测看看效果!


回放地址:https://chat.z.ai/s/887e2285-e890-47ea-83cb-8edda5

点击发布:

泽安本职是做运维工作的,刚上班的时候,带我的老大哥这种网站可没让我少收藏,现在这种小工具借助 AI 编程,很快可以生成,并且部署上线

虽然还是比较简陋,但是至少像超级玛丽了,下面是 Qwen3-Coder 开发的,从应用和操作上是要比 Qwen3 强一些的!

视频加载失败,请刷新页面再试

回放地址:https://chat.z.ai/s/8755f77c-fdd2-4412-99b6-da4a95e510c5

提示词:


回放地址:https://chat.z.ai/s/3bdf32b6-7a63-4fce-ada2-42e7e00c6cfe

GLM-4.5 深度优化全栈编程与工具调用,兼容 Claude Code、Cline、Roo Code 等主流代码智能体,到智谱开放平台即可体验。

国内用户:https://docs.bigmodel.cn/cn/guide/develop/claude

海外用户:https://docs.z.ai/scenario-example/develop-tools/claude

体验地址:https://chat.z.ai/ 或者 https://chatglm.cn

Github 仓库:https://github.com/zai-org/GLM-4.5

模型仓库:

HuggingFace: https://huggingface.co/collections/zai-org/glm-45-687c621d34bda8c9e4bf503b

ModelScope: https://modelscope.cn/collections/GLM-45-b8693e2a08984f

体验下来质量不错,但是有的时候会中断,并且还比较慢,让子弹在飞一会吧!

总结来讲,从年初的 DeepSeek 的一鸣惊人,到 K2 的发布,阿里 Qwen3-coder 在到智谱的 GLM-4.5,在 AI 这件事上我们越走阅文,越走越长

国产 AI 长脸!开源、便宜、能打,未来可期!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:Ai探索者,转载请注明出处:https://javaforall.net/264581.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月12日 下午8:42
下一篇 2026年3月12日 下午8:42


相关推荐

关注全栈程序员社区公众号