“28项评测23项SOTA——GLM-4.1V-9B-Thinking本地部署教程:10B级视觉语言模型的性能天花板!

“28项评测23项SOTA——GLM-4.1V-9B-Thinking本地部署教程:10B级视觉语言模型的性能天花板!

GLM-4.1V-9B-Thinking是由智谱AI联合清华大学团队推出的多模态大模型,以GLM-4-9B-0414基座模型为底,通过引入”思维链推理机制”和”课程采样强化学习策略”(Reinforcement Learning with Curriculum Sampling),显著提升了模型的跨模态推理能力与稳定性。在继承 GLM 系列通用大模型能力的基础上,进一步强化了视觉理解和复杂推理能力。

该模型支持长上下文输入,具备处理图像、视频、文本等多种模态的能力,适用于教育、科研、工业和政务等多个领域。在28项测评任务中有23项达到10B级别模型最佳,其中18项任务持平甚至超过8倍参数量的Qwen-2.5-VL-72B。

GLM-4.1V-9B-Thinking标志着智谱GLM系列模型从感知向认知阶段的跃迁,在突破了小模型的性能极限下,也作出如下创新:

1.在深度推理领域表现卓越,支持图像、视频、文档等多模态输入。

2.作为参数模型仅为9B的模型,在部分高难度任务中,模型表现可以媲美GPT-4o。

3.模型开源,还提供了坚实的GLM-4.1V-9B-Base模型,利于研究者们的二次开放与创新。

基础环境最低配置推荐

环境名称 版本信息 Ubuntu 22.04.4 LTS Python 3.12.4 CUDA 12.6 NVIDIA Corporation RTX 4090 * 2

注:推荐pytorch 2.7.1

查看系统版本信息

更新软件包列表

配置国内镜像源(阿里云)

具体而言,vim指令编辑文件

按 进入编辑模式,将如下内容插入至 文件中

最后,按 键退出编辑模式,输入 命令并按下 键便可保存并退出 文件

进入pytorch官网(Get Started)

找到从本地开始(Start Locally)——>PyTorch Build(Stable 2.7.1)——>Your OS(Windows)——>Packge(Pip)——>Language(Python)——>Compule Platform(CUDA 12.6)

复制所框选”命令行”后,转入至终端中粘贴执行安装

“28项评测23项SOTA——GLM-4.1V-9B-Thinking本地部署教程:10B级视觉语言模型的性能天花板!“28项评测23项SOTA——GLM-4.1V-9B-Thinking本地部署教程:10B级视觉语言模型的性能天花板!

创建虚拟环境

激活虚拟环境

#激活

进入文件夹GLM-4.1V-9B-Thinking

从github官网中克隆存储库

requirements.txt文件

转到魔塔社区官网下载模型文件:GLM-4.1V-9B-Thinking · 模型库

使用命令行下载完整模型库

智谱 AI GLM 教程

模型推理代码均在 文件夹中

若遇到端口被占用的问题,可通过如下命令解决:

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/264466.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月12日 下午8:48
下一篇 2026年3月12日 下午8:48


相关推荐

关注全栈程序员社区公众号