【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版

【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版

大家好,我是 Ai 学习的老章

DeepSeek-OCR 开源有段时间了,我曾详细测试过,也推荐过基于它的 web 端应用:,还有一个桌面客户端:

【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版

DeepSeek-OCR 官方项目 README:中有关于 vllm 0.8.5+cu118+transformers>=4.51.1 下进行离线推理的详细步骤,但是教程中在线推理部分 vLLM 还是 nightly 版本。我看网上大家根据官方文档进行部署,问题多多。正好, 。

但是,vLLM 自 0.11.1 之后默认 CUDA 更新到了 12.9,我的 Linux 算力测试机还是 12.4,本文就介绍一下不重启情况下,如何升级 CUDA 和 vLLM@0.11.2,后面一篇文章再详细介绍 DeepSeek-OCR 的部署和 API 使用。

CUDA 升级 第一步:下载 CUDA Toolkit runfile

目前 CUDA Toolkit 的最新版是 13.0,作为等等派,我还是先装 12.9.1 吧

下载地址:

注意选择符合自己操作系统、架构、版本的安装包,最后一项建议选 runfile(local)

【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版

CUDA Toolkit 的历史版本,可以在这里找到:

DeepSeek 教程【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版

如果你的服务器是离线的,把下载好的 runfile 传进去即可

第二步:卸载旧版 CUDA

可以通过查看自己 CUDA 的安装位置,一般都是在/usr/local/目录下

【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版

然后进入到下,找到 cuda-uninstaller

【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版

直接运行,把下面三项选中后,光标移至 Done 后按 Enter 进行卸载

一般很快就 OK 了

【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版
第三步:安装 CUDA Toolkit 12.9

进入到第一步下载好的 runfile 目录下

运行

然后选中以下几项,选中 Install 后 Enter

【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版

然后输入 accept 后 Enter

【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版

无比顺利情况下你会看到这个界面,这就约等于大功告成了

【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版

但是!不出意外的话,肯定会出意外了

问题 1:nvidia-uvm

你的服务器如果还有大模型在跑或别的任何服务在使用算力,极有可能会收到安装失败的 erro

查看日志发现有一个叫 nvidia-uvm 的内核正在使用

【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版

运行确实是我之前 Docker 启动的 xinfer、vllm 等在运行模型

【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版

这里情况也能不一样,就我这个,测试发现要完全停掉 docker 仅此命令还不够

要彻底停止 Docker,需要同时停止服务和套接字

然后停掉自启

完成升级后记得要 enable 一下

问题 2:nvidia-drm

再次升级 CUDA,又失败了,日志提示

这里需要切换到纯文本模式(关闭图形界面)

执行:

执行后,等待几秒钟,让图形服务完全关闭。

然后再再次升级 CUDA,就 OK 了

【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版

执行发现 Driver 和 CUDA Version 都是新的了

【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版

执行 nvcc -V 发现报错,这是因为环境变量还没修改

执行把之前的 12.4 全部修改为 12.9

【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版

然后使其生效

再次执行发现已经 OK

【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版
vLLM 升级

有网环境可以 pip upgrade,不过我这是内网服务器

所以用了 vLLM 的官方 Docker 镜像

【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版
https://hub.docker.com/r/vllm/vllm-openai/tags

很简单,直接拉取镜像

然后

把镜像保存到本地后传入内网服务器即可

至此 vLLM 升级完成

部署 DeepSeek-OCR

后面就是用 VLLM 的 Docker 拉起 DeepSeek-OCR 了

【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版

测试很 OK,单卡 4090 很顺畅,具体步骤就要下文了

【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版


老章荐书

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/236764.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月16日 下午12:19
下一篇 2026年3月16日 下午12:19


相关推荐

关注全栈程序员社区公众号