5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

最近很多朋友都在问:怎么本地部署 DeepSeek 搭建个人知识库。

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

老实说,如果你不是为了研究技术,或者确实需要保护涉密数据,我真不建议去折腾本地部署。

为什么呢?

目前 DeepSeek 教程 Ollama 从 1.5B 到 70B 都只是把 R1 的推理能力提炼到 Qwen 和 Llama 的蒸馏版本上。

虽说性能是提升了不少,但跟原汁原味的 R1 模型比起来,还是差太多了。

官方的满血版本可是 671B 的参数量,说实话,对普通人来说想本地部署,这成本确实太高了。

不过我最近发现了一个平台,不仅能用上 R1 本 1,还提供了不少免费额度。

此外,为了让拥有算力的朋友可以本地部署,我也提供了相关教程。

看完全文,你会收获:

1、满血 DeepSeek R1 模型 API 搭建方式

2、本地部署 DeepSeek R1 模型 搭建方式

一、个人知识库使用效果(满血版)

来看几个使用案例:如何借助 个人知识库文件 作为外脑,用方法论指导我们正确做事

DeepSeek 确实很好用,但关键还是会不会提问。如果不会提问,AI 再强也帮不上忙。

除了花时间学习提示词,更快的方式是本地备一份提问指南,让 AI 指导你该怎么正确提问,这样才能真正发挥它的价值!

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

AI 借助知识库内的 DeepSeek 指导手册,预判了我可能想问的问题,以及建议的正确提示词格式。

从回答中可以发现,AI 不是依据自身语料库回复,而是基于知识库内容回复。

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

当然,我们也可以直接提问,精准搜索知识库的原始信息,从而达到快速查询的效果。

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

二、API 搭建知识库

如果本地数据不涉密,还想获得最佳使用效果,那肯定得选满血的 DeepSeek R1 模型。

我们来看看怎么利用 API 用上满血的 R1 模型(671 B)。

1、先下载一个叫 Cherry Studio 的软件。

地址: https://cherry-ai.com/download

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

2、登录/注册「硅基流动」,新用户会赠送 2000 万 Token 额度。

地址:https://cloud.siliconflow.cn/i/TAAOvaXg

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

3、来到 API 密钥生成界面,创建或者复制已有的密钥。

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

4、来到 Cherry Studio,配置 API Key。

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

5、在模型广场首页,排在前两位的就是「硅基流动」「华为云」合作发布的 DeepSeek R1 / V3 模型。

如果需要推理能力,记得打开并复制 R1 模型的名称。

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

6、在模型服务的硅基流动下方,添加 R1 模型。

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

7、记得点击检查,测试下 API 是否可以正常访问

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

8、现在对话模型有了 R1,还缺少一个嵌入模型。

嵌入模型的主要作用是将本地文件的内容转换成有意义的数字,存储到向量数据库中

在用户提问时,利用 RAG 技术在数据库中搜索到相似答案,最终回复用户。

过去我有通俗解释过 RAG 技术,大家如果不了解,可以回头看下:

我们再配置一个向量模型:BAAI/bge-m3。如果希望搜索的精准度更高,可以选择 Pro/BAAI/bge-m3。

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

按照同样的方式配置到 Cherry Studio 中,这里不需要点击检查。

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

9、在 Cherry Studio 创建知识库,选择刚才配置的嵌入模型,这样就会自动利用对应的模型来向量化数据。

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

10、上传本地文件进行向量化。

如果本地 PDF 文件是 扫描件、手写件,或者带有复杂的表格数学公式,解析效果会很差,甚至无法解析。

遇到这种情况,建议配合过去我介绍的 PDF 转结构化文档 的方案来使用!!!

这样才可以正常回复知识库的内容:免费AI神器!精准解析 PDF 还能一键翻译!

如果追求性价比,推荐使用 Doc2x:https://doc2x.noedgeai.com?inviteCode=4A6KOD

如果希望更加稳定,那么可以考虑 Textin :https://www.textin.com/market/detail/pdf_to_markdown

当我们上传文件后,箭头指向的图标如图所示,则代表向量化成功。

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

11、测试使用,这一步添加助手,并选择刚配置的 满血 R1 模型

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

如果不想每次在添加助手时选择模型,可以将它设置为 默认模型

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

我们来测试一下,发现 DeepSeek 已经开始深度思考了。

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

AI 回复的答案和原文一致。

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

原文内容:

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

三、本地部署搭建知识库

如果只是想 简单体验,或者本地算力充足、希望保护数据安全,那么可以考虑 本地部署 的方案。

1、访问 Ollama 官方地址:https://ollama.com/download,下载软件。

建议下载最新版本 Ollama,个人踩坑经历:旧版本安装 R1 后可能无法正常使用。

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

2、双击运行 Ollama 后,打开命令行,运行需要安装的模型(参数越大,显存要求越高)。

地址:https://ollama.com/library/deepseek-r1

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

如果没有 GPU,建议选择 1.5B,运行相对轻量。我这 4G 显存 勉强能跑 8B,但速度较慢。

有朋友用 RTX 4090 测试 32B,效果和速度都不错。大家可以参考这个梯度,根据自己的硬件选择合适的模型。。

下载并运行成功后,就可以和 DeepSeek R1 对话啦。

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

3、当然,我们可以用 Cherry Studio 作为本地 R1 模型的 UI 界面。

打开软件的配置,选择 Ollama,在管理按钮中选择自己部署的模型。

如果选不到,就手动添加模型,API 秘钥填不填无所谓。

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

最后点击检查,测试下网络连通性,出现连接成功即可。

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

接下来就可以在添加助手时,选择本地部署的 R1 模型啦。

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

4、再测试使用一下,答案与原文一致,搞定 ~

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

因为我用的是 Mac,所以没测试 Windows 设备。不过两者区别不大,大家可以自行尝试下。

四、总结

看到这里,相信你已经找到最适合自己的 DeepSeek 个人知识库方案了。

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “?”“”等问题热议不断。

事实上,

继等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近70次后,终于把整个AI大模型的学习门槛,降到了最低!

在这个版本当中:

第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言

您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 分享出来:包括等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

在这里插入图片描述

在这里插入图片描述

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

在这里插入图片描述

五、AI产品经理大模型教程

在这里插入图片描述

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。
  • 内容
    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
  • 内容
    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.3 流水线工程
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
  • 内容
    • L3.1 Agent模型框架
    • L3.2 MetaGPT
    • L3.3 ChatGLM
    • L3.4 LLAMA
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
  • 内容
    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

这份 包括等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署教程)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:Ai探索者,转载请注明出处:https://javaforall.net/236481.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月16日 下午12:35
下一篇 2026年3月16日 下午12:35


相关推荐

关注全栈程序员社区公众号