手把手教程:本地部署 DeepSeek-R1 模型完整指南 (2026最新版)

手把手教程:本地部署 DeepSeek-R1 模型完整指南 (2026最新版)

前言:为什么选择 DeepSeek-R1?
DeepSeek-R1 是目前国产开源模型中的巅峰之作,被称为“推理之王”。与普通聊天模型不同,它具备“思维链”(Chain-of-Thought)技术,在回答问题前会先进行深度思考(类似 OpenAI o1)。
本地部署的优势:




  • :locked: 绝对隐私:敏感代码、私人数据不需要上传云端。
  • :money_bag: 永久免费:没有 Token 计费,跑满 24 小时也不花一分钱。
  • :high_voltage: 断网可用:飞机上、高铁上,随时随地都能用。

在开始之前,请务必确认你的电脑配置,这决定了你能运行多“聪明”的模型。本地模型运行主要依赖 显存 (VRAM)内存 (RAM)

DeepSeek-R1 通过 Ollama 提供多种“蒸馏”版本,适配不同硬件:

:warning: 注意: 如果没有独立显卡(NVIDIA),仅靠 CPU 也能运行,但速度会慢很多(像打字员逐字输入)。苹果 Mac M系列芯片因统一内存架构,运行效率极高,非常适合本地部署。


Ollama 是目前全球最流行的本地大模型运行框架,它把复杂的环境配置简化成了一个安装包。

  • 官网地址:https://ollama.com/
  • 点击首页的 Download 按钮,网站会自动识别你的系统(Windows / macOS / Linux)。

(:framed_picture: 图示:Ollama 官网首页,一只羊驼的 Logo,中间是大大的 Download 按钮)

  • Windows/Mac:双击安装包,一路 Next 即可。安装完成后,Ollama 会在后台静默运行(任务栏可以看到小图标)。
  • 验证是否成功
    按下 输入 (Mac 打开 ),输入以下命令并回车:


如果屏幕显示 字样,恭喜你,引擎已就位!


在终端(CMD DeepSeek 教程 或 Terminal)中,根据你的电脑配置,复制并运行以下指令之一:

  • 入门首选(适合 8G – 16G 内存):

(注:默认下载的是 7B 或 8B 版本,最通用)

  • 低配尝鲜(适合老旧电脑):

  • 高配发烧(适合 32G+ 内存/显存):

输入命令后,系统会自动从 Ollama 仓库拉取模型。

:hot_beverage: 此时可以去喝杯咖啡,下载速度取决于你的网速。

下载完成后,你会看到 提示符。试着输入:“为什么太阳从东边升起?
你会看到 DeepSeek-R1 开始输出:


如果看到 标签,说明 R1 独特的推理功能生效了!


虽然黑底白字的终端很酷,但在日常使用中,我们需要一个像 ChatGPT 那样美观、带历史记录、能管理对话的界面。Chatbox 是目前的最佳拍档。

  • 官网下载:https://chatboxai.app/zh
  • 支持 Windows, macOS, Linux, 甚至 iOS 和 Android。
  • (推荐下载 Community 免费版,功能完全够用)

(:framed_picture: 图示:Chatbox 官网下载页,展示了类似 ChatGPT 的气泡对话界面)

安装并打开 Chatbox,点击左侧的 “设置” (:gear: 图标)

  1. AI 模型提供方 (AI Provider):选择 Ollama API
  2. API 域名 (API Host)
  • 默认填:
  • 解释:这是 Ollama 在你电脑后台开的“传送门”。
  1. 模型 (Model)
  • 点击下拉框,应该能自动刷出 。如果没有,点击右侧的刷新按钮。
  1. 温度 (Temperature):warning:重点)
  • 建议设为 0.6
  • 解释:DeepSeek-R1 是推理模型,温度过高(如 1.0)会导致它胡言乱语;温度适中能保证逻辑严密。
  1. 点击 保存 (Save)

(:framed_picture: 图示:Chatbox 设置界面截图,红框高亮了 Ollama 选项、API 地址和模型选择框)


现在你已经拥有了一个私人 AI 助手,以下技巧能让你用得更爽:

  • 点击展开:你可以看到 AI 是如何一步步推导的(排查错误非常有用)。
  • 折叠:直接看结论。
  • 释放显存:运行模型时,尽量关闭 Photoshop、大型游戏或 Chrome 的几十个标签页。
  • 设定上下文上限:在 Chatbox 设置中,将 Context Limit 设为 40968192。设置太高(如 128k)会极度消耗内存,导致电脑卡死。
  • Q: 报错 怎么办?
  • A: 你的 Ollama 后台服务没启动。Windows 用户请在开始菜单搜索 Ollama 并运行;Mac 用户请在应用里打开它。确保任务栏有小图标。
  • Q: 回答被截断,写一半不写了?
  • A: 可能是显存爆了,或者 Chatbox 的 设置太小。在设置里把 Max Tokens 调大(如 2048 或 4096)。
  • Q: 怎么删除不需要的模型?
  • A: 回到终端,输入 即可删除,释放硬盘空间。

下一步建议:
尝试在 Chatbox 的“角色设定”里输入:“你是一个资深 Python 架构师”,然后让 DeepSeek-R1 帮你重构一段代码,体验一下它的威力吧!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:Ai探索者,转载请注明出处:https://javaforall.net/242600.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月15日 下午11:00
下一篇 2026年3月15日 下午11:03


相关推荐

关注全栈程序员社区公众号