【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS

【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS

基于最近火的OpenClaw 搭建,不需要买Mac mini设备,且成本很低。

在这篇文章中,会手把手教你如何搭建一个运行24小时帮你干活的AI “0”号员工,小白都能上手~

省略一些注册与准备流程,完成AI员工搭建大概只需要5分钟!

AI员工能做什么?

1. 每日AI早报消息。

给它安排了一个每日定时任务,每天提前去网上搜罗一些资料并整理,前一天的AI热门资讯,汇总归类后发给我。

2. 短视频脚本制作

我给它一个主题,基于我的个人人设背景和基础信息,生成具备我个人风格的短视频脚本。

3. 会议总结

接入飞书、钉钉、企业微信、等IM,以文档、会议记录作为知识库,分析总结。

4. 自动开发

认识OpenClaw

Open 即开源

Claw 英文单词意思是爪子,代表动手、执行、操作。

我们平时问豆包、元宝AI如何处理表单数据,具体步骤怎么做,还是得那你自己完成。

而OpenClaw就能提供一个动作机制,不仅告诉你怎么做还会顺便直接帮你完成这个操作。

没错,OpenClaw就是具备执行力的AI智能体。

很多人会联想到之前的Manus,类似但两者完全底层不一样,Manus只是一个Saas服务,而OpenClaw是开源项目,运行在本地或云,能直接操作你的浏览器、本地文件、打开软件并完成所有操作。

总结,OpenClaw就是一个AI数字分身。

搭建方式

第一种:本地电脑上安装。

第二种:云端电脑上安装。

不建议用经常使用的主力机,因OpenClaw权限太高了,容易删除一些文件和操作。

推荐云服务租一台主机,然后跑OpenClaw。

推荐现在云端跑通后,在部署本地。

搭建OpenClaw准备

一台云服务器、一个IM对话工具、一个AI大模型

【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS

云服务国内的阿里云和腾讯云等等,国外有aws、Azure。

有了云服务器,还需要一个 AI 大模型作为 OpenClaw 的大脑。

不同的人部署的 OpenClaw 所展现出来的能力不一样,很大程度上取决于选择了哪家的 AI 大模型。

【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS

AI 大模型也很多

国内:火山引擎、 DeepSeek、腾讯混元、阿里千问、字节豆包、Kimi、文心一言等。

国外:谷歌 Gemini、OpenAI  GPT,还有 Anthropic 的 Claude 系列。元宝 混元 Hunyuan 教程

例如:做普通任务处理,国内的很多模型就够用,如果是做写代码、更专业的工作,考虑国外一些顶级模型。

【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS

OpenClaw 使用 AI 大模型是用过 API 调用的方式完成的,过程中需要消耗 token,所以也对应费用。

OpenClaw 如同是个 AI 分身,给它一台电脑,配置一个超级大脑。那么,还需要给它和你之间搭建一个沟通机制,也就是 IM 对话工具。

IM 工具的作用,是让你给 OpenClaw 发指令,以及它给你反馈结果的一个工作台。

IM 工具的选择有很多,国内可以用飞书、钉钉、、企业微信,国外可以用 WhatsApp、Telegram、Slack 等。

现在你应该清楚 OpenClaw 到底是怎么工作的了。

到这步我们已经有,一台云服务器、一个 AI 大模型、一个 IM 对话工具。

需要先注册一个腾讯云账号,一个阿里 AI 服务账号,以及一个飞书账号

腾讯云和阿里云现在有一键部署openClaw的产品

【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS

【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS

一、环境搭建

(一)Docker部署方式

基于 CentOS Stream 9 构建 Docker 镜像的完整方案,包含 Node.js 22 和 OpenClaw 命令行环境

1. Dockerfile 内容


2. 构建 Docker 镜像 

(1)修改配置网络


加入


(2)构建镜像



【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS
3. 运行 Docker 容器


4. 验证安装

(二)Node.js环境

第一种方式:使用NodeSource仓库安装Node.js 18

  1. 下载并执行NodeSource安装脚本
    
    
  2. 安装Node.js
    
    
  3. 验证安装
    
    

【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS

第二种方式(可选):使用NVM管理Node.js版本(推荐)

如果您需要多个Node.js版本,可以使用NVM(Node Version Manager)来安装和管理。

  1. 安装NVM
    
    

    然后重新打开终端,或者运行:

    
    
  2. 使用NVM安装Node.js
    
    
(三)手动安装openClaw 小龙虾

github下载最新的安装包

https://github.com/openclaw/openclaw/releases

【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS

下载后上传到服务器,解压


【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS

随后修改权限,通过docker启动。


【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS

这边耐心等待下,过程需要很长时间,耐心等待。

如果看到小龙虾出现,说明OpenClaw安装成功了~

【遇到报错】

【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS

解决方案

您需要为Docker配置一个国内镜像加速器。这是在中国大陆服务器上使用Docker的常规优化操作。

请按以下步骤操作:

  1. 创建或修改Docker守护进程配置文件
    
    
  2. 在配置文件中添加镜像加速器地址

    您可以选择一个加速器,将以下JSON内容写入文件。(推荐使用腾讯云加速器,因为您的服务器在腾讯云上)

    选项一:腾讯云镜像加速器(推荐)

    
    

    选项二:其他常用加速器

    
    
  3. 重新加载配置并重启Docker服务
    
    
  4. 验证加速器是否生效
    
    

    【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS如果命令输出中显示您配置的镜像地址,说明配置成功。

  5. 重新运行构建命令

    配置完成后,重新执行您最初的命令:

    
    

完成基本配置

  • Security Warning: 按Enter或者向右箭头选择”Yes”(代表你已知晓风险)。
  • QuickStart: 接下来会让你选模式,闭眼选”QuickStart”。

【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS

  • LLM 配置: 配置你的大模型 API Key。

我们这里选择Qwen。【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS

也可以跳过

这里会有一串链接,复制到浏览器中执行。

遇到问题: Qwen OAuth failed

【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS

问题根因

您的服务器(或 Docker 容器内部)的网络配置中,DNS 服务器无法正确解析 这个域名,导致 OpenClaw 在安装过程中无法完成 Qwen 的 OAuth 认证流程。

解决方案:


在浏览器中验证。

回来后,选择模型就可以了。

  • Skills/Channel: 建议先全部”Skip”,先完成安装,后面可以随时设置。

【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS

选择跳过,提交。

【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS

由于 B 端服务器通常是远程访问,需要修改

~/.openclaw/openclaw.json

在gateway字段下添加以下安全配置:

修改后重启网关使配置生效:


大家同时记住这里的token,以后会用。

重启服务:


如果报错:pairing required 此设备需要网关主机的配对批准。用以下的命令批准设备准入。

docker exec -it * node dist/index.js devices list –token *

docker exec -it * node dist/index.js devices approve * –token *

显示准入成功就可以了。

再回到页面,看到状态已经正常。


(一)接入飞书机器人

通过IM(即时通信软件:飞书、钉钉、微信、企业微信等等) 来对AI 下达指令。

以飞书 (Feishu)为例子,建立连接。

现在已经在 CentOS 7 上把 OpenClaw 跑起来,让OpenClaw可以处理飞书文档、多维表等日常操作数据,本质上是给你的 AI Agent 装上了“手脚”、“翅膀”、“24小时值班室”。

  1. 从“被动对话”转为“主动推送” (Proactive Agent)

很多人会说用网页版,但网页交互方式更死板固定,可以做页面来给openClaw做一些配置,但与AI最佳沟通方式是群@方式。

  • 配置飞书后:Agent 变成了你的24 小时0号员工。
  • 实战案例:写个任务,让 OpenClaw 监控存储空间使用情况,使用率超过 95%,它不需要你打开网页,直接在飞书弹出一条卡片消息:“数据盘告急,当前已用 90%,建议清理日志!”

案例一:打造“沉浸式”指挥部 (Omnipresent Interface)

  • 实战案例:非上班时间,突然想查一下服务器这几天运行状态。不用掏电脑连 VPN,直接在飞书对话框发一句:“@AI 助手,查一下项目昨天的运行周报”,它直接调取服务器数据整理好发给你。

案例二:多 Skill 联动的“交响乐” (Tool Use & Orchestration)

飞书不仅仅是聊天,它是一个操作平台。

OpenClaw 的 Skill 允许 AI 调用飞书的各种 API:

  • 多维表格 (Bitable):AI 抓取服务器报错日志后,自动填入飞书多维表格进行分类。
  • 日程提醒:AI 发现某个问题需要处理,自动往你的飞书日历里塞一个提醒。
  • 项目迭代卡片
  • 飞书机器人等等。

步骤

创建应用:在飞书开放平台创建企业自建应用,获取App ID和App Secret。

在应用的 凭证与基础信息 页面,复制:

  • App ID(格式如 cli_xxx)
  • App Secret

❗ 重要:请妥善保管 App Secret,不要分享给他人。

随后添加机器人。

添加权限。

可以用:我的 -> 批量导入,比较方便。


随后我们回到命令行执行。


会重新配置,App ID和App Secret。

继续选择一些权限设置。

完成所有设置。

我们再回到飞书,建立飞书与openclaw的长连接:他就能知道你说的话了。

最后发布版本。

我们随便建立一个飞书群,添加你建立的机器人,@他,就可以得到回答啦!

【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS

【保姆级教程】OpenClaw快速部署大龙虾Linux CentOS


结束语:“一人公司”+数字员工的时代的已到来

OpenClaw 的意义在于,它让 AI 从一个“被动聊天者”变成了一个真正的“主动生产者”。

对于 B 端企业来说,拥有一个 24 小时在线、文档数据、聊天记录、是一个永不疲倦的数字员工,不再是科幻小说的桥段,而是当下即可触达的现实。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/263004.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月12日 下午10:05
下一篇 2026年3月12日 下午10:06


相关推荐

关注全栈程序员社区公众号