今天这份 OpenClaw 完全指南,希望你阅读后能学会下面的知识:
在这个章节中,你会学习到推理服务、Memory、RAG、MCP、Skills、Agent 这些概念和 OpenClaw 到底是什么关系。
OpenClaw 是一个开源、可自托管的个人 AI Agent 平台。
它运行在你自己的机器上(笔记本、VPS 均可),连接你已有的聊天渠道(WhatsApp、Telegram、飞书等 22+ 平台)。
它不仅能聊天 —— 更能执行任务:读写文件、处理邮件、运行代码、控制浏览器、调度工作流。
一句话概括:一个坐在你消息应用和工具链之间的 Agent 运行时 + 网关,24/7 永远在线。
下面我们从 Agent 层面的基础概念来理解一下这个工具。
GPT、DeepSeek 等大模型,本质是存储在磁盘上的超大参数文件(通常高达几十 GB 甚至上百 GB)。
想要让大模型工作,需要一套专门的后端架构将其加载到显存中,对外提供 HTTP 或 WebSocket 接口。
这个接收用户请求、进行数学矩阵运算并逐字生成回复的服务,就是推理服务。
推理服务本身是无状态的 HTTP 服务,请求处理完成后不会保留任何数据,不同请求可能被不同实例处理。
大模型每次处理信息都有字数限制(即上下文窗口 Context Window),且输入的字数越多,计算成本越高、响应越慢。
因此我们也不能简单粗暴地把所有历史对话都塞进去,而是需要分层、按需管理:
每次用户发起新提问时,系统会先提取并拼装这些记忆片段,再和当前问题一起发送给大模型。
这套管理对话上下文、让AI具备 “记忆能力” 的机制,就是 Memory。
大模型的知识完全受限于它的训练数据。一旦训练完成,它的知识就 “冻结” 了,无法回答实时新闻或企业内部的保密文档,且容易一本正经地胡说八道。
RAG 是目前解决此问题最成熟的技术路径,其核心是“先查资料,再作答”:
有了 Memory 和 RAG,大模型具备了 “内部记忆” 和 “外部知识”,但它依然是一个封闭在服务器里的纯文本处理系统,无法主动执行获取实时天气、读写本地文件、查询数据库等外部操作。
为了打破这种封闭,行业内发展出了工具调用能力,而 MCP 则是一套标准化、开源的工程协议规范,专门用于统一模型与外部工具的对接标准。
MCP 解决了“能不能调用工具”的问题,但大模型不知道 何时用、按什么顺序用、如何组合工具,就像拥有工具却不懂修车流程。
Skills 是一套结构化的操作手册/执行流程:
它明确规定了特定场景下,工具的使用顺序、执行逻辑、注意事项。
例:在客服工单处理场景中,MCP 提供查用户档案、查业务记录、发送话术、转人工、关闭工单等工具,而 Skills 则定义「先读工单诉求→查用户历史记录→给出解决方案→必要时转专人→归档关闭工单」的完整流程。
同时,依靠 Skills 核心的渐进式加载的机制,可以也可以解决同时连接工具过多而调用不准确、不稳定的问题。
当一个大模型同时拥有以下能力后,就形成了可以 自主行动、完成目标 的 AI 系统,即 AI Agent(智能体):
如果说前面的内容是 Agent 的理论框架,那么 OpenClaw,就是这套理论目前最极致、最疯狂的开源工程实践。
它完美融合了上述的 Memory、RAG、MCP、和 Skills 机制,向我们展现了当下 AI Agent 的终极形态:
OpenClaw 的底层推理服务是完全可插拔的。你可以随时切换 OpenAI、Anthropic 等厂商和本地大模型。
OpenClaw 内置了持久化记忆系统,通过 Markdown 文件和向量数据库存储长期记忆。它采用 “向量 + 关键词” 的混合检索策略,既能通过语义匹配召回久远对话,也能精确提取实体信息,并支持跨会话、跨项目的记忆延续。
OpenClaw 能直接索引你的本地文件夹、文档库,将私人资料向量化后存入本地向量库。
OpenClaw 原生集成 MCP 协议,将你的电脑变成了 “可被 AI 操控的工具集”。
OpenClaw 通过 Skills 将复杂工作流封装成可重用模块。你可以编写或从社区(ClawHub)安装技能。
另外,它还有两大特点:
在这个章节中,你会弄清楚 OpenClaw 的爆火经历了怎样一个过程。
全部调研和写作已完成。以下是我的调研总结和写作建议,以及完整文章。
Peter Steinberger 是一位奥地利的开发者,此前创立了被近 10 亿用户使用的 PDF 工具包 PSPDFKit,并于 2023 年以约 1 亿欧元出售。
2025 年 11 月的某天,他因为 “恼怒于这样的工具居然还不存在”,花了一个小时写出了 OpenClaw 的原型。
这个项目经历了堪称 AI 史上最戏剧化的命名历程:
社区戏称此事为 “The Fastest Triple Rebrand in AI History” 。
精准切中市场痛点:
在 OpenClaw 之前,AI 产品几乎都是封闭、云端的。用户既担心隐私,又嫌能力不够——大多数 AI 助手只能 “聊天” 而无法”执行”。
OpenClaw 的”开源 + 自托管 + 实干型”三合一,精准回应了市场最核心的诉求。
Agent 概念的临门一脚:
经过几年市场教育,人们对 AI Agent 已不再陌生。
OpenClaw 提供了第一个具体、可触摸、可部署的实现范本,把抽象概念拉进了现实。
社区驱动的病毒式传播:
从 Discord 到 Reddit,从 Hacker News 到 B 站,OpenClaw 的龙虾吉祥物 Molty、”The claw is the law” 口号和各种离谱的 Agent 翻车事件,形成了极具传播力的梗文化。
在开始动手操作之前,了解清楚这些概念更有利于更顺利的玩转 OpenClaw
OpenClaw 采用 “微核 + 插件 + 统一网关” 的架构模式,可以类比为一个”AI 操作系统”。
openclaw docker 教程
Gateway(网关)
Gateway 是整个系统的心脏。
它负责管理所有连接、会话、配置、定时任务和 Webhook,但它自己不做 “思考” —— 思考交给 Agent。
把它理解为一个 “电话总机”:所有渠道的消息进来,它负责转接给合适的 Agent 处理。
Channels(消息渠道适配器)
每个聊天平台都有一个独立的适配器,通过消息总线与 Agent 解耦。
你可以同时连接 WhatsApp、Telegram 和 Slack,在任何一个平台上跟你的 AI 助手对话,体验完全一致。
Hooks(扩展机制)
在 OpenClaw 的运行周期内,系统会不断产生各种生命周期事件(例如:系统启动、开启新会话 /new、触发特定工具、或是运行报错)。
Hooks 允许开发者预先埋入特定的逻辑,当这些系统事件发生时,自动“拦截”并触发执行。
CornJob(定时任务)
常规的 AI 助手通常是“被动响应式”的,必须依赖用户的 Prompt 唤醒才能工作。
通过配置时间调度规则,系统可以在特定的时间节点(如每天早晨 8 点)或按照固定的时间频率,在后台自动唤醒智能体去执行既定的工作流。
这意味着 OpenClaw 可以脱离人类的即时指令,独立完成周期性的数据巡检、生成汇总报告或定时信息推送,使其行为模式更接近一个具备一定自主性的“数字员工”。
四大核心概念的协同关系
Gateway 是整个系统的核心中枢,是所有组件的接入与调度中心;
Channels 是系统与用户的交互入口,为 Gateway 提供标准化的用户指令;
Hooks 是系统的事件扩展机制,基于 Gateway 分发的事件实现无侵入式的能力增强;
CronJob 是系统的主动执行引擎,通过 Gateway 调度 AI 智能体实现自动化任务。
四个模块相互协同,共同构成了 OpenClaw 高可扩展、高可控、高灵活的核心架构,支撑了个人 AI 智能体从交互、调度、扩展到自动化的全流程能力。
这是 OpenClaw 最具突破性的设计。它采用分层记忆架构:
社区用户的原话说得好:
“一个月后,你的龙虾就会摸清你的工作作息、沟通偏好、正在推进的项目、讨厌的细节、常用工具,还懂你十几项不同任务里 “按老样子来” 到底是什么意思。”
这种持续使用的 复利效应 是任何无状态 AI 工具无法复制的。
这个章节中,你将了解搭建 OpenClaw 的环境要求,具体的安装流程,以及初始化向导中的一些推荐配置。
安装 OpenClaw 需要 Node.js 22 以上的版本。
Node.js 安装方式1:图形界面安装:
Node.js 安装方式2:Homebrew 安装
打开终端,输入一行命令:
安装完成后,在命令行执行命令:node –v ,若看到版本号 >= v22:可以继续后续的安装操作
现在你的电脑上已经拥有了 Node.js 环境,我们推荐使用 npm 来安装 openclaw,就下面一行代码:
然后静静等待几分钟即可,中间输出的 warning 可以直接忽略:
安装成功后,我们执行 openclaw –version ,如果看到类似的版本号,说明安装成功:
接下来,我们运行 openclaw 提供的初始化向导来完成一些必要的配置,执行下面的命令:
首先,你会看到 openclaw 给出的安全提示:
如果你认为当前环境足够安全(可以接受被攻击可破坏),选择 Yes
接下来会提示你选择配置模式,新手推荐选择 ,先快速跑起来,后续所有的配置都可以再进行更改。
接下会提示你选择一个模型厂商,如果你不差钱,直接使用 Anthropic/OpenAI 的旗舰模型,效果是最好的。
如果考虑性价比,可以选择国产的 GLM、MiniMax,Qwen 等,例如这里我们先尝试选择 MiniMax,接下来它会提示你配置 API Key:
如果你要使用的模型厂商没有在推荐的列表中,或者你需要配置自定义的本地模型服务,可以先选择 Skip for now,后续我们在 Gateway 中进行配置。
接下来是选择模型,根据你上一步选择的模型提供商选择合适的模型即可,如果你希望后续再自定义模型,这一步就选择 Enter model manually。
下一步就是提示你配置 ,这里我们还是先 Skip,我们尽量先保证基础的流程能够跑通再接入三方平台,这样排查问题比较方便。
接下来会提示你安装 Skills,为了先跑通流程,我们仍选择 Skip for now,后续在网页中进行单独配置。
接下来会提示你配置 Hooks,这里有两个 Hooks 建议直接开启(空格选中)然后 Enter 即可:
Hook 配置完成后,会自动进行网关的配置,然后选择我们选择 TUI 默认选项结束安装。
我们向前翻一下终端,可以看到带有 Token 的 WebUI 的地址:
我们在浏览器中访问这个地址,如果正常出现 OpenClaw 控制台界面则代表安装过程已经成功:
如果你刚刚在向导过程中已经配置过模型 API Key,现在就可以尝试和它进行对话了:
在这个章节中,你将学习到如何为 OpenClaw 配置自定义的大模型 API。
如果你在配置向导中跳过了模型相关配置,或者想追加更多自定义的模型,我们可以到控制面的配置模块。
默认的表单形式目前体验不是很好,推荐大家直接选择 Raw 模式下进行配置:
这份 JSON 实际上就是 openclaw 的核心配置文件,它存放在 。
openclaw 本身内置的配置模块并不具备对 JSON 文件进行格式化和高亮的能力,配置体验很差,建议直接在一些编辑器(如 VsCode )中打开这个文件进行配置:
默认的配置很多,我们把一级 Key 收缩一下,整体上就是这几个分类:
这里模型的配置我们需要用到 models 和 agents 两份配置,我们将它展开,因为之前我们在向导中已经配置了 MiniMax 的模型,这里已经有一份默认的配置了:
这部分是 OpenClaw 识别「自定义模型提供商」的核心配置,告诉系统「去哪里调用模型」「模型的参数/计费规则是什么」。
这部分定义 OpenClaw 智能体的默认使用规则,比如「默认用哪个模型」「哪些模型可以用(白名单)」「模型的快捷别名」。
按照这个格式,我们可以继续添加更多的模型配置,比如我们再添加一个阿里云百练的模型:
在 providers 添加一个新的 key(bailian,可以随便自定义),然后配置模型的 baseUrl、apiKey、模型 Id,支持输入文字和图片、开启推理,更改上下文窗口和最大输出 Token。
最后在 agents 的 defaults 下配置一下刚添加的模型,并且将默认模型(model.primary)切换为此模型。
然后我们将这份配置复制到控制面板中的 配置 – Raw JSONS 中,点击 Save 和 Update,然后它会更新配置和重启服务(需要等待一段时间)。
接下来我们到聊天中测试一下:
在聊天框输入 指令可以查看当前已经配置好的所有模型
如果你配置过多个模型,可以使用 快捷切换模型:
openclaw 运行起来是非常烧 Token 的,如果你的模型 TPM 比较低,很容易超限导致任务失败。并且如果只配置单一的模型提供商也可能会因为提供商故障或者余额不足导致失败等情况。
opencraw 为此额外提供了一个回退机制,我们可以在 defaults.model 下增加一个 fallbacks 字段,这里可以配置当主模型出现故障时可以使用的备用模型。
在本章节中,你将学到 OpenClaw 接入飞书具体的配置方法,最终能在飞书中和 OpenClaw 进行对话。
OpenClaw 默认提供的 Channels 大部分在国内无法使用(如 WhatsApp、Telegram 等),推荐国内同学使用飞书接入。
在最新版本中,OpenClaw 已经将飞书内置到默认渠道,无需再额外安装插件。
注:如果 OpenClaw 后续需要读取飞书文档或表格,可根据提示再追加 等文档权限。*
为了方便快速配置,你可以直接选择批量导入权限:
然后将下面的 JSON 复制到编辑框中:
完成这些配置后,我们先发布一下应用,再进行后续的配置(这一步是必须的,如果先进行事件订阅的配置会是无法配置成功的)。
点击上方的创建版本,然后填写版本号、更新说明等信息:
创建完成后,直接点击确认发布,看到状态变为已发布即可:
现在,我们要把飞书的凭据告诉 OpenClaw,我们还是直接到配置模块的 Raw 模式直接修改配置,直接复制下面的配置添加进去,然后将 appId、appSecret、botName 进行相应的替换:
然后点击右上角的 Save 和 Update:
注意这一步配置完成后还无法直接使用飞书通信,还要完成最后一步事件订阅的配置。
为了让 OpenClaw 能实时收到你在飞书发出的消息,我们需要配置事件订阅。
考虑到大部分本地部署的 OpenClaw 没有公网 IP,强烈推荐使用飞书的长连接模式。
发布完成后飞书会收到一个结果通知,点击打开应用,即可和机器人发起对话:
在默认 dmPolicy: pairing 模式下,未知的发送者必须要完成配对才能成功对话。
首次发送信息机器人会在飞书私聊里直接回一条配对提示,里面包含一段配对码(Pairing code)。
你需要复制这个配对命令,在终端中进行执行:
接下来,你就可以在飞书中和 openclaw 进行对话啦:
在本章节,你将学习到 OpenClaw 的分层人格架构、四大身份配置文件作用。
回到 OpenClaw 的 Gateway 控制面,我们还能在聊天窗口中看到飞书中的完整对话信息,并且可以看到更详细的中间过程(在飞书中只会回复最终结论)。
我们看到,当我们发出第一句 “你好” 时,OpenClaw 首先去读取了这四个文件():
然后在它的首次回复中,明确要求希望知道我们的相关信息和希望给它的角色设定:
OpenClaw 区别于普通无状态聊天机器人的核心竞争力,最重要的能力之一就在于它可以持久化的人格设定 一 带有全生命周期记忆系统。
前者让 AI 拥有稳定、可预期的专属人设。
后者让 AI 真正实现跨会话 “记住” 你的偏好、决策与历史上下文,二者结合才能打造出 “越用越懂你” 的私有化 AI 助手。
我们按照它的要求,先把我的个人信息以及希望它记住的一些关键设定告诉它:
回到 gateway 控制面,我们看到它更新了 这两个文件:
接下来,我们给它发送一些限制性要求,并且希望它记住这些要求:
回到 gateway 控制面,我们看到它这次更新了 文件:
OpenClaw 的人设并非单一的提示词片段,而是基于工作区文件体系的 分层人格架构,每个文件各司其职,每次会话启动时自动加载,确保人设的一致性与稳定性,同时支持精细化的自定义调整。
OpenClaw 的人设体系由4个核心文件构成,全部位于工作区默认路径 下,每个文件的作用与加载规则如下:
核心原则:人设设定遵循 “最小必要” 原则,避免过度冗长的描述导致 Token 浪费与人设混乱;所有规则必须可落地、可执行,避免空泛的形容词。
1. IDENTITY.md:基础身份名片
这是 AI 的“出生证明”,定义最基础的身份标识,是人设的基础框架,内容简洁清晰,避免复杂规则。
在我们刚刚完成和 OpenClaw 的交流后,它的 IDENTITY.md 内容如下:
场景化模板参考:
2. USER.md:用户画像(服务对象定义)
这个文件告诉 AI “我是谁”,让 AI 精准适配你的习惯、背景与偏好,避免千人一面的回复,是人设 “懂你” 的关键。
在我们刚刚完成和 OpenClaw 的交流后,它的 USER.md 内容如下:
3. SOUL.md:人格内核(人设核心)
这是AI的“灵魂文件”,决定了AI的语气、沟通风格、性格特质、行为边界,是人设差异化的核心,也是每次会话优先加载的最高优先级规则之一。
核心配置模块
在我们刚刚完成和 OpenClaw 的交流后,我们看到我们对它的安全红线要求被加入到了 SOUL.md :
4. AGENTS.md:工作方式与操作规范
这个文件定义了AI“怎么干活”,是人设落地的执行手册,明确了 AI 处理任务的标准流程、工具使用规则、记忆使用方法,确保 AI 的行为符合你的预期。
我们刚刚的对话并没有改变 AGENTS 后续的工作模式,所以这个文件的信息还是默认的:
有一个重要的认知,这些人设文件并不是要求你首次就配置的非常完美。
它们可以根据你和 OpenClaw 长期的协作下慢慢积累的越来越完善。
所以首次配置建议只配置一些关键的设定,在后续的工作中,你再慢慢将你需要让他了解到的更多信息慢慢告诉他,后面你的 OpenClaw 就会越来越懂你了。
在开始本章节前,如果你对 Skills 了解的还不是特别清楚,推荐阅读
OpenClaw 完全兼容 Agent Skills 规范,核心作用是教智能体如何调用工具、完成特定领域的任务。
OpenClaw 从 3 个路径加载技能,同名技能按优先级从高到低覆盖,规则如下:
在 OpenClaw 安装时,它已经帮我们捆绑安装了很多内置的 Skills ,我们可以打开 OpenClaw 的技能面板,可以看到当前已经安装了所有技能:
也可以在命令行执行下面的命令查看:
OpenClaw 捆绑安装的技能也不是默认启用的(根据上面的图,虽然当前 Openclaw 已经安装了 55 个 Skills,但其中只有 12 个处于可用状态),它取决于你的电脑上是否有相关的环境,我们可以看到控制面板下:
ClawHub 是 OpenClaw 的官方技能市场,类似于 npm 之于 Node.js。截至 2026 年 3 月已收录 19000+ 社区贡献的技能,是 OpenClaw 生态的核心扩展能力来源。
它提供了技能的搜索、安装、版本管理、发布、备份全生命周期能力,无需编写代码,一条命令即可为 Agent 扩展新能力。
ClawHub CLI 安装:
OpenClaw 并没有自带 Web 搜索的能力:
下面我们尝试给 OpenClaw 增加一个网络搜索的技能,这里我们选择 tavily。
tavily-search 是 ClawHub 下载量 Top 的核心技能,专为 AI Agent 优化的实时联网搜索能力,解决大模型知识 cutoff 问题,支持深度搜索、学术搜索、新闻搜索等场景。
我们可以先执行下面的命令来搜索这个技能:
执行后会返回匹配的技能列表,确认目标技能的 slug 为 tavily-search。
然后我们执行下面的命令安装技能:
注意,clawhub 会默认把技能安装到当前 Agent 的 Workspace 目录下:
安装完成后,tavily 还无法直接使用
因为它本质是一个 API 服务,需要先注册一个 API Key:
我们看到这里每月默认有 1000 个 Credits 的免费额度(对应一千次搜索),对于个人用户来讲完全够用了。
然后我们打开 OpenClaw 的配置面板,找到 Environment,然后创建一个新的环境变量(TAVILY_API_KEY),然后把刚刚注册好的环境变量粘贴进去,重启服务:
这次我们再下发一个搜索指令,发现它能搜索到结果了:
回到 OpenClaw 控制面,我们看到它在收到指令后先读取了当前 Skill 的 Skill.md 文件:
然后调用其中的搜索脚本得到了搜索结果:
为了方便后续使用,我们让它记住后续使用 tavily-search 作为默认的搜索服务:
不推荐使用 OpenClaw 默认携带的 Brave Search ,效果不如 Tavily。
强烈推荐在安全可信的环境下运行 OpenClaw(如虚拟云主机、VPS、闲置设备),如果你在一台含有重要数据的设备中运行,强烈建议按照安全清单完成配置。
OpenClaw 之所以成为一个高价值攻击目标,核心在于它的设计本质 — 它不仅仅是一个聊天机器人,而是一个具备系统级权限的自主执行代理:
OpenClaw 全部命中了 AI Agent 安全的 “致命三要素” — 访问私有数据、暴露于不可信内容、具备对外通信能力。
想要安全的使用 OpenClaw,下面是一份全面的安全检查清单:
看到这里,恭喜你已经完成了 OpenClaw 的常用基础配置,接下来就是自由扩展你的龙虾,探索你的专属玩法了,下面是一些常见的玩法推荐。
配置一个 Heartbeat 技能,每天早上 7 点自动推送天气、日历、邮件摘要、行业头条。社区反馈:绝大多数用户在一周内就把这个功能变成了日常习惯。
真实案例:一位用户两天内清理了 4,000+ 封邮件,AI 自动完成分类、退订垃圾邮件、为重要邮件起草回复。
从 Telegram 对话中直接审查 PR、运行测试、检查 CI/CD 状态、合并代码。一位用户报告通过 DevClaw 插件实现了 “每天平均 50 个 commit,最高 92 个”19.
监控下载文件夹,自动将 PDF、图片、安装包按类型和主题分类归档。一条命令即可完成。
从 Gmail、日历、会议记录中自动提取联系人信息,维护人际关系网络,提醒跟进事项。
多个 Agent 协作:选题调研 → 内容起草 → SEO 优化 → 排期发布。有用户用 4 个营销 Agent 管理全部内容运营。
将内部文档、Wiki、数据库接入 OpenClaw,构建专属企业专家问答系统。
随时给 AI 发消息让它记住任何信息,需要时搜索调用。配合 Next.js 仪表板可视化,打造真正的外部记忆。
通过 Telegram 控制家里的空气净化器、远程关机电脑、调节智能灯光。
我已经利用 OpenClaw 搭建起了我自己的专属虚拟团队,并且它们之间能够相互分工协作完成复杂任务:
我会在后续的教程中讲解智能团队的搭建流程,以及和大家分享更多有意思的玩法,感兴趣大家可以提前关注我的账号。
发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/272411.html原文链接:https://javaforall.net
