太卷了,智谱一口气开源6个模型,即新一代开源模型 GLM-4-32B-0414 系列,包含基座、推理、沉思模型,MIT License,不限制商用。
不想自己部署的小伙伴可以直接登录全新站点
https://chat.z.ai/ 试用。
https://chat.z.ai/ 试用。
此次开源最大的亮点
是具有深度思考能力的推理模型 GLM-Z1-32B,主打一个“为快不破”:国内迎来最快的推理模型。
是具有深度思考能力的推理模型 GLM-Z1-32B,主打一个“为快不破”:国内迎来最快的推理模型。
为满足不同场景需求,上线到智谱MaaS开放平台 bigmodel.cn 的推理模型分为三个版本:
200 tokens/s极速深度推理,给推理模型的落地场景带来了无限可能,PaperAgent就最经典的Agentic AI应用场景:Agentic RAG/MCP应用(含代码解析),对GLM-Z1-AirX进行了第一手实测。
GLM-Z1-AirX加持的Agentic RAG
Agentic RAG过程应用于问答的一个代表性示例,主要由2大流程组成:
Agentic RAG问答流程(GLM-Z1-AirX)
总结类型Query
: A股行情经历了怎样的变化
: A股行情经历了怎样的变化
GLM-Z1-AirX仅在【12.8s】就给出了长达2246字的答案,并且答案也比较丰富,全面。
这个速度直接让你的RAG系统直接赢在了thinking线上,可能别人还在thinking,你已经给出答案了。
这里以DeepSeek-R1作为对比,thinking阶段就花费20s,最终答案1764字,总耗时63.3s
GLM-Z1-AirX流式使用指南
GLM-Z1-AirX加持的MCP应用
选这个场景测试,是因为不少小伙伴对MCP与Function Call的关系有困惑,比如“mcp 和 function call可以共存吗?”,今天以GLM-Z1-AirX作为基础模型对剖析MCP应用的工作流程:
智谱 AI GLM 教程
-
MCP 主机
—— LLM 应用程序(例如 Cursor),管理连接 -
MCP 客户端
—— 与 MCP 服务器保持一对一连接 -
MCP 服务器
—— 为 LLM 提供上下文、工具和能力
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。
发布者:Ai探索者,转载请注明出处:https://javaforall.net/267020.html原文链接:https://javaforall.net
