【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!

【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!

个人笔记本电脑Windows11硬件配置参考:

  • CPU:AMD Ryzen 5 4600H with Radeon Graphics 3.00 GHz
  • 内核:6
  • 逻辑处理器:12
  • 内存:16GB
  • GPU:512MB
  • 操作系统:Windows 11

1.1 安装Ollama服务

ollama: 一个模型管理工具,可下载并运行不同的模型。

1.1.1 下载ollama

官网:ollama.com 下载windows版本

【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_知识库

1.1.2 检验ollama

查看ollama是否安装成功:命令行输入 命令,出现如下版本号说明安装成功

【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_人工智能_02

1.1.3 修改ollama的环境变量

可根据自己的需求,修改ollama的环境变量,一般本地部署修改和即可

  • :Ollama 监听的网络接口,设置,可以让 Ollama 监听所有可用的网络接口,从而允许外部网络访问:0.0.0.0:11434,否则在RagFlow中,模型url无法使用本地IP进行注册。
  • :指定模型镜像的存储路径。默认存储在C盘:C:Users퇧ame%.ollamamodels。例如,设置,可节约内存。
  • :控制模型在内存中的存活时间。例如,设置可以让模型在内存中保持 24 小时,提高访问速度。
  • :允许更改 ollama 的默认服务端端口(11434)。例如,设置。
  • :决定了 Ollama 可以同时处理的用户请求数量。例如,设置可以让 Ollama 同时处理两个并发请求。
  • :限制了 Ollama 可以同时加载的模型数量。例如,设置可以确保系统资源得到合理分配。

1.2 部署DeepSeek

1.2.1 获取下载命令

在ollama模型页面选择需要下载的DeepSeek参数规模,然后点击右侧的“复制”按钮,复制下载模型的命令。

【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_人工智能_03

1.2.2 安装运行模型

打开windows命令提示符工具(WIN + R快捷键,然后输入cmd,回车)。输入安装运行命令,ollama会自动下载模型,成功之后,如下页面所示:

【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_AI大模型_04

可查看当前加载的模型、所占的内存大小以及使用的处理器类型:

【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_知识库_05

1)内存不够:需要释放本地内存,保证本地内存充足。

【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_人工智能_06

1.3 安装Docker桌面端

目的:RagFlow相关组件依赖于Docker运行。

1.3.1 下载Docker Desktop

下载Windows桌面端,官网下载地址:www.docker.com

1.3.2 配置镜像源

如下图所示:打开Docker Desktop->点击设置->Docker Engine

【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_人工智能_07

配置如下json镜像源,点击应用并重启 Docker。

1.4 安装RagFlow

官方环境要求如下:

CPU >= 4 核 RAM >= 16 GB Disk >= 50 GB Docker >= 24.0.0 & Docker Compose >= v2.26.1

1.4.1 下载

下载或者克隆官方仓库至本地:

1.4.2 修改基础配置(按需)
  1. 镜像下载完整发行版 修改文件,设置 来下载 RAGFlow 镜像的 v0.16.0 完整发行版
  2. 【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_人工智能_08

  3. 文档引擎修改 修改文件,设置 切换文档引擎。
  4. 【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_AI大模型_09

  5. Infinity 目前官方并未正式支持在 Linux/arm64 架构下的机器上运行.
  6. 上传文件大小修改 修改文件,设置大小
  7. 【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_人工智能_10

1.4.3 运行

这个下载过程本地如果没有搭建会很慢,镜像下载容易失败,ragflow镜像大概有10个G,最好搭个。

镜像拉取失败,如下:

【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_大模型入门_11

镜像拉取成功之后,会自动启动ragflow,查看Docker Desktop控制台包含如下六个运行中的容器:

【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_AI大模型_12

Minio:文件上传到此文件服务器。

Redis:文件解析度时候需要使用redis消息队列进行暂存,方便异步执行。

Elasticsearch:存储向量数据、任务信息。

MySql:存储用户信息、系统配置信息(比如配置知识库名称)、任务定义、执行状态、结果等。

1.5 知识库使用

1.5.1 登陆注册

在浏览器输入,默认端口号是80,使用邮箱注册登陆即可。

【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_大模型学习_13

1.5.2 配置模型LLM

点击个人中心-》模型提供商-》在此设置模型参数

【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_AI大模型_14

1)模型类型:DeepSeek 模型选择,bge-m3 模型选择 embedding

2)模型名称:Ollama -list命令中列出的模型名称填写(建议在列表中复制),如:

3)基础Url:

4)最大token数:可随便填写(本地部署不消耗在线 token),如:

1.5.3 系统模型设置

【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_AI大模型_15

聊天模型选择:本地部署的deepseek-r1:7b

嵌入模型,Img2txt模型、Sequence2txt模型、Rerank模型、都是RagFlow默认的

这里简单说一下这几个模型之间的联系:

嵌入模型提供数据表示,Img2txt和Sequence2txt模型生成文本,Rerank模型优化结果,聊天模型生成最终回复,TTS模型将文本转为语音。

1.5.4 创建知识库

【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_人工智能_16

1.5.5 上传文件并解析

知识库的内容检索回答,需要先将文件解析成块后才能问答。

【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_大模型学习_17

1.5.6 配置知识库模型

配置创建好的知识库模型,就可以进行检索了。

【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_大模型入门_18

1.5.6 聊天助手知识问题

添加聊天助手做知识问答。

【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_AI大模型_19

1.6 使用问题

1.6.1 docker运行ragflow内存不足的问题

ERROR: Connection error caused by: ConnectionError(Connection error caused by: NewConnectionError(

: Failed to establish a new connection: 【Errno 111】 Connection refused))

调整windows对docker desktop的内存分配。

win + r,调出运行,输入 %UserProfile%,进入用户文件夹

在用户文件夹下创建一个新的文件,改名为 .wslconfig,内容如下:

保存文件后,重启docker和WSL。

  1. 退出docker,任务管理器中确保无docker相关进程
  2. win+r调出运行,输入cmd并回车,在命令提示符中,输入以下内容并回车

重新打开docker,确保容器中所有的程序都运行,重新在浏览器中连接ragflow进行尝试

1.6.2 长文本回复中断问题:ERROR: Tenant not found

目前在官方发布的最版本v0.16.0中,还是会存在长文本回复中断问题这个问题,并且Github官方仓库中有很多关于此问题的issuse,后续看ragflow官方团队发布最新版本时是否会解决这个问题。

解决方案:升级到最新的经过测试的版本,这里我查了一下官方升级文档如下:

ragflow.io/docs/dev/up…

【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_大模型入门_20

第一:修改文件,设置

DeepSeek 教程【喂饭教程】最详细的DeepSeek-R1:7B+RAGFlow本地知识库搭建教程,建议收藏起来慢慢学!!_知识库_21

第二:重新更新RagFlow镜像

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/236339.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月16日 下午12:43
下一篇 2026年3月16日 下午12:43


相关推荐

关注全栈程序员社区公众号