这不是标题党——我真的在聊天框里跟 OpenClaw(社区昵称”龙虾”)说了一句”帮我再部署一个”,然后它自己创建了 EC2 实例、分配了弹性 IP、SSH 过去装好了环境、写好了配置文件、启动了新的 Gateway。全程 25 分钟,我没打开过终端。本文是「OpenClaw 云上实战指南」系列第 3 篇,教你复现这个过程。
先看时间线:
人类总操作时间:不超过 5 分钟。 其余全是 AI 自主完成。
要复现这个实验,你需要:
- 一只已经在跑的 OpenClaw(第 1 篇教过怎么部署)
- 足够的 IAM 权限(下面详细说)
- 一个新的 Telegram Bot Token(每个 OpenClaw 实例需要独立的 bot)
这是整个实验的信任基础——你需要告诉亚马逊云科技:”这台服务器上的程序,有权限操作我的云资源。”
给 OpenClaw 所在 EC2 实例的 IAM 角色添加以下权限:
⚠️ 这些权限适合实验和测试。生产环境请遵循权限收敛原则,只授予必要的操作权限。实验结束后记得收紧。
以下是真实对话记录(简化版)。整个过程在 Telegram 里完成。
龙虾执行的命令:
龙虾执行的命令:
这是最”赛博朋克”的一步——龙虾发现自己 SSH 不过去,于是决定自己解决:
龙虾执行的命令:
踩坑提示: 推送的公钥只有 60 秒有效。龙虾的策略是:推送后立刻 SSH 进去,把公钥写入 ,一劳永逸。
龙虾执行的核心命令:
两只龙虾完全独立:各自有自己的 Telegram bot、对话记忆、工作空间。通过内网 SSH 互通。
部署完成后,母体龙虾自动给新生龙虾换了一个权限更小的 IAM 角色:
母体保留完整权限(能管理基础设施),子体只保留 Bedrock 权限(只能调模型)。这是基本的安全实践。
这个实验展示的不只是”AI 能执行命令”——而是 AI 能够理解自己的运行环境、发现问题、自主解决问题、并完成一个完整的openclaw 部署端到端部署流程。
核心前提是亚马逊云科技的 IAM + Bedrock + EC2 组合:
- IAM 角色让 AI 拥有精细化的云资源操作权限,而不是一把万能钥匙
- Bedrock 提供零密钥的模型调用,新实例不需要配置任何 API Key
- EC2 提供标准化的计算环境,AI 可以用 CLI 完全自动化地操作
当这三者结合,AI 就不只是”能聊天”了——它能自主管理基础设施。
- 多 Agent 架构:一个实例跑多个 AI 助手,按群/按人隔离
- 成本优化:Nova Lite + Graviton 混合路由策略
关注亚马逊云开发者账号获取更新。
- OpenClaw GitHub | 官方文档
- 还在养龙虾?教你让龙虾自己生龙虾
- 推出 OpenClaw on Amazon Lightsail
- 把 OpenClaw 部署到云上:一个值得认真考虑的选择
- Amazon EC2 | IAM | Amazon Bedrock
本文是「OpenClaw 云上实战指南」系列第 3 篇。
作者:亚马逊云开发者 | 实验过程基于官方博客真实记录
发布者:Ai探索者,转载请注明出处:https://javaforall.net/272586.html原文链接:https://javaforall.net
