n8n 是一个可自托管的工作流自动化平台,提供强大的 AI 集成能力,支持连接 400+ 应用和服务。通过可视化的节点编辑器,用户可以构建复杂的自动化工作流和 AI Agent,无需编写大量代码。n8n 的开源特性使您可以完全掌控数据和部署环境,非常适合需要数据隐私保障的企业和个人用户。
- Docker(推荐)或 Node.js 18+
- 内存:2GB 以上(推荐 4GB)
- 磁盘空间:至少 5GB 可用空间
启动成功后,在浏览器中访问 ,首次访问需要创建管理员账号。
n8n 支持通过环境变量进行配置。以下是常用的配置项。
默认情况下 n8n 使用 SQLite 存储数据。对于生产环境,建议使用 PostgreSQL。
如果需要通过域名和 HTTPS 访问 n8n,建议配合 Nginx 反向代理使用。
n8n 内置了丰富的 AI 节点,可以方便地构建 AI 驱动的自动化工作流。
在使用 AI 节点之前,需要先配置模型提供商的凭据。
- 进入 Settings(设置) → Credentials(凭据)
- 点击 Add Credential(添加凭据)
- 选择对应的服务(如 OpenAI、Anthropic 等)
- 填入 API Key 并保存
支持的 AI 模型提供商:
n8n 可以直接连接本地运行的 Ollama,实现完全离线的 AI 工作流。
在 n8n 中配置 Ollama:
- 添加 Ollama 类型的凭据
- Base URL 填入 Ollama 服务地址
- 在 AI 节点中选择 Ollama 作为模型提供商
以下是一个简单的 AI Agent 工作流示例,通过 Webhook 接收消息,使用 AI 生成回复。
- 创建新工作流
- 添加 Webhook 节点作为触发器
- 添加 AI Agent 节点
- 在 AI Agent 中配置:
- Chat Model:选择已配置的模型(如 OpenAI GPT-4o)
- System Message:设置 Agent 的角色和行为准则
- Tools:添加需要的工具节点(如网络搜索、代码执行等)
- 添加 Respond to Webhook 节点返回结果
- 连接节点并激活工作流
n8n 支持构建完整的 RAG(检索增强生成)流水线:
- 使用 Document Loader 加载文档
- 使用 Text Splitter 进行文本分段
- 使用 Embeddings 节点生成向量
- 存入 Vector Store(支持 Pinecone、Qdrant、Supabase 等)
- 查询时通过 Vector Store Retriever 检索相关内容
- 将检索结果传入 AI Agent 或 LLM Chain 生成回答
Docker Compose 配置中已包含 ,服务会在系统重启后自动恢复。
- 确认 环境变量设置正确
- 如果使用反向代理,确认代理配置支持 WebSocket
- 检查防火墙是否放行了对应端口
- 确认工作流已激活(Active 状态)
- 确认凭据中的 API Key 正确且有效
- 检查网络连通性(某些 AI 服务需要代理访问)
- 对于 Ollama,确认服务地址在 Docker 网络中可达
- 查看节点的执行日志获取详细错误信息
- 启用执行记录自动清理:
- 减少保留天数:(7 天)
- 对于大量工作流,考虑使用 PostgreSQL 替代 SQLite
- 适当增加 Docker 容器的内存限制
- n8n 官方网站
- n8n GitHub 仓库
- n8n 官方文档
- n8n 社区节点库
- AI 工具总览 – 返回 AI 工具概览页
想探索更多 AI 工具? 返回 AI 工具总览 →
发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/245742.html原文链接:https://javaforall.net
