部署 OpenClaw 的所有方法:架构方案对比(附图表)

部署 OpenClaw 的所有方法:架构方案对比(附图表)

 

OpenClaw(前身为 MoltBot,前身为 ClawdBot)于 2026 年 1 月底横空出世,成为自 ChatGPT 以来最受关注的开源项目之一。由 Peter Steinberger 创建,它是一个自托管的 24/7 AI 代理,实际上可以在您的计算机上执行操作 —— 管理文件、编写代码、浏览网页,并通过 13+ 个消息平台自动化您的生活。

但这里有一个没人正确回答的问题:您应该在哪里运行它,LLM 应该部署在哪里?

至少有六种不同的架构配置,而正确的选择取决于您对速度安全性性能的优先级。

 

在深入之前,您需要了解核心概念。OpenClaw 使用网关架构

  • 网关是大脑 —— 它拥有状态、工作区、内存和代理配置。
  • 您通过控制界面(Web 仪表板)、消息应用(Telegram、Discord、WhatsApp、Slack)或移动应用连接到网关。
  • 网关与LLM 提供商通信 —— 可以是商业 API(Anthropic、OpenAI、Google)或通过 Ollama 的本地模型。
  • 可选的节点可以通过从其他设备提供本地屏幕、摄像头和系统访问来扩展网关。

 

 

最简单的路径。您直接在每天使用的 Mac 或 PC 上安装 OpenClaw。网关、工作区和文件都位于同一操作系统上。

适合人群: 首次尝试的开发者、想要在投入专用硬件之前尝试 OpenClaw 的个人用户。

维度

openclaw 部署

评分 说明 速度 ★★★★★ 零网络延迟 —— 一切都在本地 安全性 ★★☆☆☆ OpenClaw 可以完全访问您的个人文件和操作系统 性能 ★★★☆☆ 受限于您机器的正常运行时间(合上盖子时关闭)

 

User { # 用户 n1: circle label="开始" n2: rectangle label="打开终端" n3: rectangle label="通过 Web UI 发送消息" n1.handle(right) -> n2.handle(left) n2.handle(right) -> n3.handle(left) n3.handle(bottom) -> Machine.n4.handle(top) [label="localhost"] } Machine { # 您的日常机器 n4: rectangle label="OpenClaw 网关" n5: rectangle label="工作区 + 文件" n6: rectangle label="LLM API 调用" n7: circle label="任务完成" n4.handle(right) -> n5.handle(left) n4.handle(bottom) -> LLM.n8.handle(top) [label="API 请求"] n5.handle(right) -> n7.handle(left) } LLM { # 商业 LLM API n8: rectangle label="Claude / GPT / Gemini" n9: rectangle label="生成响应" n8.handle(right) -> n9.handle(left) n9.handle(top) -> Machine.n4.handle(bottom) [label="响应"] } 

 

 

同一台机器,但 OpenClaw 在 Docker 容器中运行。这是 Simon Willison famously 选择的配置 —— “我没有足够的勇气直接在我的 Mac 上运行 OpenClaw”。

适合人群: 安全意识强的用户,仍然想要本地便利性。已经每天使用 Docker 的开发者。

维度 评分 说明 速度 ★★★★★ 仍然是本地,Docker 开销最小 安全性 ★★★★☆ 文件系统隔离,无法访问个人文件 性能 ★★★☆☆ 仍然受限于您机器的正常运行时间

 

User { # 用户 n1: circle label="开始" n2: rectangle label="通过 Web UI 发送消息" n1.handle(right) -> n2.handle(left) n2.handle(bottom) -> Docker.n3.handle(top) [label="localhost"] } Docker { # Docker 容器 n3: rectangle label="OpenClaw 网关" n4: rectangle label="挂载的工作区卷" n5: rectangle label="挂载的配置卷" n3.handle(right) -> n4.handle(left) n3.handle(bottom) -> n5.handle(top) n3.handle(bottom) -> LLM.n6.handle(top) [label="API 请求"] } LLM { # 商业 LLM API n6: rectangle label="Claude / GPT / Gemini" n7: rectangle label="生成响应" n6.handle(right) -> n7.handle(left) n7.handle(top) -> Docker.n3.handle(bottom) [label="响应"] } 

 

 

这是 OpenClaw 社区中最受欢迎的配置,它引发了 Mac Mini 销量激增的广泛报道。您在一台单独的、始终开启的机器上运行 OpenClaw —— 通常是 Mac Mini、旧笔记本电脑或 Proxmox homelab 服务器。

适合人群: 高级用户、homelab 爱好者、想要 24/7 AI 助手而无需云成本的任何人。

维度 评分 说明 速度 ★★★★☆ 局域网延迟可忽略不计 安全性 ★★★★★ 与您的个人机器完全隔离 性能 ★★★★★ 始终开启,没有合盖问题,专用资源

 

User { # 用户(手机 / 笔记本) n1: circle label="开始" n2: rectangle label="发送 Telegram 消息" n1.handle(right) -> n2.handle(left) n2.handle(bottom) -> MacMini.n3.handle(top) [label="LAN / Tailscale"] } MacMini { # 专用 Mac Mini n3: rectangle label="OpenClaw 网关" n4: rectangle label="工作区" n5: rectangle label="代理内存 + 状态" n3.handle(right) -> n4.handle(left) n4.handle(right) -> n5.handle(left) n3.handle(bottom) -> LLM.n6.handle(top) [label="API 请求"] } LLM { # 商业 LLM API n6: rectangle label="Claude Opus 4.5" n7: rectangle label="生成响应" n6.handle(right) -> n7.handle(left) n7.handle(top) -> MacMini.n3.handle(bottom) [label="响应"] } 

 

 

您从 DigitalOcean、Hetzner、AWS、GCP 或 Oracle Cloud(免费层)租用虚拟专用服务器并自行安装 OpenClaw。

适合人群: 远程工作者、数字游民、技术娴熟、想要全球访问的用户。

维度 评分 说明 速度 ★★★★☆ 取决于 VPS 位置 安全性 ★★★★☆ 良好的隔离,但数据位于第三方基础设施上 性能 ★★★★★ 真正的 24/7,全球可访问,易于扩展

 

User { # 用户(任何设备) n1: circle label="开始" n2: rectangle label="通过 Telegram 发送命令" n1.handle(right) -> n2.handle(left) n2.handle(bottom) -> VPS.n3.handle(top) [label="Internet / SSH 隧道"] } VPS { # VPS(DigitalOcean / Hetzner) n3: rectangle label="OpenClaw 网关" n4: rectangle label="工作区 + 状态" n5: rectangle label="防火墙 + 认证" n3.handle(right) -> n4.handle(left) n3.handle(bottom) -> n5.handle(top) n3.handle(bottom) -> LLM.n6.handle(top) [label="API 请求"] } LLM { # 商业 LLM API n6: rectangle label="Claude / GPT / Gemini" n7: rectangle label="生成响应" n6.handle(right) -> n7.handle(left) n7.handle(top) -> VPS.n3.handle(bottom) [label="响应"] } 

 

 

针对非技术用户或希望开箱即用的团队。Railway、xCloud、Northflank 和 Cloudflare Workers 等平台提供一键式 OpenClaw 部署。

适合人群: 非技术用户、小企业主、重视时间胜过控制的团队。

维度 评分 说明 速度 ★★★★☆ 平台优化,全球边缘节点可用 安全性 ★★★★☆ 平台管理的加固、SSL、防火墙 性能 ★★★★☆ 始终开启,但与自管相比定制性有限

 

User { # 用户 n1: circle label="开始" n2: rectangle label="点击 Railway 部署" n3: rectangle label="在向导中配置 API 密钥" n4: rectangle label="通过 Telegram / Discord 聊天" n1.handle(right) -> n2.handle(left) n2.handle(right) -> n3.handle(left) n3.handle(right) -> n4.handle(left) n4.handle(bottom) -> Cloud.n5.handle(top) [label="Internet"] } Cloud { # 托管云平台 n5: rectangle label="OpenClaw 网关(托管)" n6: rectangle label="自动更新 + 监控" n7: rectangle label="预配置集成" n5.handle(right) -> n6.handle(left) n6.handle(right) -> n7.handle(left) n5.handle(bottom) -> LLM.n8.handle(top) [label="API 请求"] } LLM { # 商业 LLM API n8: rectangle label="Claude / GPT / Gemini" n9: rectangle label="生成响应" n8.handle(right) -> n9.handle(left) n9.handle(top) -> Cloud.n5.handle(bottom) [label="响应"] } 

 

 

这是 OpenClaw 最先进的架构。网关在云中运行(VPS 或托管),而您本地设备上的节点提供屏幕访问、摄像头和系统功能。将其视为”云端大脑,桌面之手”。

适合人群: 想要全球可用性和本地机器控制的高级用户。

维度 评分 说明 速度 ★★★☆☆ 云到本地的往返增加了本地任务的延迟 安全性 ★★★☆☆ 更多攻击面 —— 云 + 本地端点都需要加固 性能 ★★★★★ 两全其美:始终开启的大脑 + 本地设备功能

 

User { # 用户 n1: circle label="开始" n2: rectangle label="通过 WhatsApp 发送命令" n1.handle(right) -> n2.handle(left) n2.handle(bottom) -> CloudGW.n3.handle(top) [label="Internet"] } CloudGW { # 云网关(VPS) n3: rectangle label="OpenClaw 网关" n4: rectangle label="代理内存 + 状态" n5: diamond label="需要本地任务?" n3.handle(right) -> n4.handle(left) n4.handle(right) -> n5.handle(left) n5.handle(bottom) -> LocalNode.n6.handle(top) [label="是 - 分派"] n5.handle(right) -> n8.handle(left) [label="否 - 仅 API"] n3.handle(bottom) -> LLM.n9.handle(top) [label="API 请求"] } LocalNode { # 本地节点(Mac / iPhone) n6: rectangle label="屏幕 + 摄像头 + 系统" n7: rectangle label="执行本地操作" n6.handle(right) -> n7.handle(left) n7.handle(top) -> CloudGW.n3.handle(bottom) [label="结果"] } LLM { # LLM 提供商 n8: rectangle label="直接云任务" n9: rectangle label="Claude Opus 4.5" n10: rectangle label="生成响应" n9.handle(right) -> n10.handle(left) n10.handle(top) -> CloudGW.n3.handle(bottom) [label="响应"] } 

 

 

OpenClaw 的架构只是等式的一半。另一半是您的 LLM 在哪里运行

 

使用 Anthropic Claude(推荐,特别是 Opus 4.5)、OpenAI GPT-4 或 Google Gemini。

 

使用 Ollama 在与 OpenClaw 相同的机器上直接运行 Llama 3.3、Qwen 2.5 Coder 32B、DeepSeek R1 32B 等开源模型。

配置:

ollama pull qwen2.5-coder:32b export OLLAMA_API_KEY="ollama-local" openclaw config set agent.model ollama/qwen2.5-coder:32b 

 

Ollama 在您的网络上运行在一个强大的 GPU 服务器上,而 OpenClaw 在较轻的机器或 VPS 上运行。

 

在支持 GPU 的 VPS(Lambda Labs、Vast.ai)上运行 Ollama,并将您的 OpenClaw 实例指向它。

 

 

配置 速度 安全性 性能 每月成本 技术技能 1. 日常机器原生安装 ★★★★★ ★★☆☆☆ ★★★☆☆ ¥0 + API 低 2. 日常机器 Docker ★★★★★ ★★★★☆ ★★★☆☆ ¥0 + API 中 3. 专用本地机器 ★★★★☆ ★★★★★ ★★★★★ ¥0 + API 中 4. 自管 VPS ★★★★☆ ★★★★☆ ★★★★★ ¥35-170 + API 高 5. 托管云 ★★★★☆ ★★★★☆ ★★★★☆ ¥170-250 + API 无 6. 混合(VPS + 节点) ★★★☆☆ ★★★☆☆ ★★★★★ ¥35-170 + API 高

 

 

如果您只想尝试 OpenClaw: 从配置 1(原生安装)+ 选项 A(Claude API)开始。15 分钟即可运行。

如果您认真考虑日常使用: 配置 3(专用 Mac Mini)+ 选项 A(Claude API)是社区的最爱。性能、安全性和简单性的最佳平衡。

如果隐私是不可谈判的: 配置 3 + 选项 B 或 C(本地 Ollama)。没有任何东西离开您的网络。

如果您想要无需硬件的随处访问: 配置 4(VPS)或 5(托管云)+ 选项 A。真正的 24/7 全球可用性。

如果您想要一切: 配置 6(混合)+ 选项 A 或 C。云端大脑,本地双手。最复杂,但功能最强。

 

上面的每个 FlowZap 代码块都可以直接粘贴到 FlowZap Playground 中,以生成交互式架构图。

OpenClaw 正在快速发展。本指南反映了 2026 年 2 月初的项目状态。如需最新信息,请查看 OpenClaw 官方文档 和 r/openclaw 子版块。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:Ai探索者,转载请注明出处:https://javaforall.net/253964.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月13日 下午2:25
下一篇 2026年3月13日 下午2:26


相关推荐

关注全栈程序员社区公众号