比R1快8倍,智谱开源GLM-Z1系列,实测 Agentic AI 也能极速深度推理!

比R1快8倍,智谱开源GLM-Z1系列,实测 Agentic AI 也能极速深度推理!

太卷了,智谱一口气开源6个模型,即新一代开源模型 GLM-4-32B-0414 系列,包含基座、推理、沉思模型,MIT License,不限制商用。

不想自己部署的小伙伴可以直接登录全新站点 
https://chat.z.ai/ 试用。
此次开源最大的亮点
是具有深度思考能力的推理模型 GLM-Z1-32B,主打一个“为快不破”:国内迎来最快的推理模型
为满足不同场景需求,上线到智谱MaaS开放平台 bigmodel.cn 的推理模型分为三个版本:
200 tokens/s极速深度推理,给推理模型的落地场景带来了无限可能,PaperAgent就最经典的Agentic AI应用场景:Agentic RAG/MCP应用(含代码解析)GLM-Z1-AirX进行了第一手实测。
GLM-Z1-AirX加持的Agentic RAG
Agentic RAG过程应用于问答的一个代表性示例,主要由2大流程组成:

Agentic RAG问答流程(GLM-Z1-AirX)

总结类型Query
: A股行情经历了怎样的变化
GLM-Z1-AirX仅在【12.8s】就给出了长达2246字的答案,并且答案也比较丰富,全面。
这个速度直接让你的RAG系统直接赢在了thinking线上,可能别人还在thinking,你已经给出答案了。
这里以DeepSeek-R1作为对比,thinking阶段就花费20s,最终答案1764字,总耗时63.3s
GLM-Z1-AirX流式使用指南
GLM-Z1-AirX加持的MCP应用
选这个场景测试,是因为不少小伙伴对MCP与Function Call的关系有困惑,比如“mcp 和 function call可以共存吗?”,今天以GLM-Z1-AirX作为基础模型对剖析MCP应用的工作流程:

智谱 AI GLM 教程

  • MCP 主机
     —— LLM 应用程序(例如 Cursor),管理连接
  • MCP 客户端
     —— 与 MCP 服务器保持一对一连接
  • MCP 服务器
     —— 为 LLM 提供上下文、工具和能力

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:Ai探索者,转载请注明出处:https://javaforall.net/267020.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月12日 下午6:27
下一篇 2026年3月12日 下午6:28


相关推荐

关注全栈程序员社区公众号