openclaw本地Linux部署并与飞书连接(超详细)

openclaw本地Linux部署并与飞书连接(超详细)

以下为面向
Linux 环境 的
OpenClaw(v2026.x)完整
部署
教程,综合参考多篇权威实操指南 [ref_1][ref_2][ref_3][ref_4][ref_6],覆盖从环境准备、核心服务安装、模型对接、
飞书/机器人集成到生产级运维的全流程。本
教程适用于 CentOS 7/8、Alibaba Cloud
Linux 3、Ubuntu 22.04/24.04 等主流发行版,支持 Docker 容器化
Node.js 原生双模式
部署
重点适配局域网 Ollama、智谱 GLM-4.6、百炼及 vLLM 推理后端。 — 🔍 一、问题解构 | 维度 | 关键诉求 | |——|———-| | 目标平台 |
Linux 服务器(物理机/云主机/WSL2) | |
部署形态 | 生产可用、29小时在线、支持开机自启

连接 | | 核心组件 |
OpenClaw(AI网关) + LLM推理服务(Ollama/GLM-4.6/百炼/vLLM) +
飞书机器人(可选) | | 关键能力 | Web UI管理、Skills插件扩展、API代理、事件订阅、模型热切换 | | 用户画像 | DevOps 工程师、AI 应用开发者、企业IT管理员(零代码经验亦可) | — 🛠️ 二、方案推演
分步实施 ✅ 步骤 1:环境准备(通用前置) bash # 更新系统 & 安装基础工具 sudo apt update && sudo apt install -y curl wget git gnupg lsb-release jq net-tools # Ubuntu/Debian # 或 sudo yum update -y && sudo yum install -y curl wget git epel-release jq net-tools # CentOS/RHEL # 开放必要端口(以
飞书+Web UI为例) sudo ufw allow 18789/tcp #
OpenClaw 默认 Web UI 和 API 端口 [ref_3][ref_6] sudo ufw allow 8080/tcp # 可选:反向代理入口(Nginx) sudo ufw enable > ⚠️ 注意:若使用阿里云/腾讯云等公有云,必须同步在控制台安全组中放行 `18789` 端口 [ref_3][ref_6]。 — ✅ 步骤 2:选择
部署方式(推荐 Docker 模式) | 方式 | 适用场景 | 优势 | 参考来源 | |——|———-|——|———-| | Docker 一键
部署 | 快速验证、生产上线、免依赖冲突 | 10分钟完成,自动拉取镜像,支持 `–restart=always` | [ref_3][ref_6] | | Node.js 手动
部署 | 需深度定制、调试源码、集成 VS Code 插件 | 支持 `npm run dev` 热重载,便于 Skills 开发 | [ref_4] | | 源码编译
部署 | 安全审计、国产化信创环境(如麒麟OS) | 全链路可控,适配 ARM64 架构 | [ref_4] | 👉 首选 Docker
部署(生产推荐): bash # 1. 安装 Docker(Ubuntu 示例) curl -fsSL https://get.docker.com | sh sudo usermod -aG docker $USER && newgrp docker # 2. 拉取
启动
OpenClaw 官方镜像(v2026.2) docker run -d –name
openclaw –restart=always -p 18789:18789 -v /opt/
openclaw/data:/app/data -v /opt/
openclaw/logs:/app/logs -e
OPENCLAW_MODEL_PROVIDER=”ollama” -e
OPENCLAW_OLLAMA_BASE_URL=”http://host.docker.internal:11434″ -e
OPENCLAW_SKILLS_ENABLED=”true” ghcr.io/
openclaw/clawdbot:v2026.2 > 💡 `host.docker.internal` 是 Docker Desktop 兼容写法;
Linux 服务器需替换为宿主机内网 IP(如 `192.168.1.100`),或使用 `–network host` 模式直通网络 [ref_2]。 — ✅ 步骤 3:对接大语言模型(LLM)
OpenClaw 支持多后端模型,
配置通过环境变量或 Web UI 设置: | 模型类型 |
配置方式 | 示例值 | 备注 | |———-|———–|———|——| | Ollama(局域网) | `
OPENCLAW_MODEL_PROVIDER=ollama` + `
OPENCLAW_OLLAMA_BASE_URL` | `http://192.168.1.100:11434` | 需提前在局域网
部署 Ollama
`ollama pull qwen:3b` [ref_2] | | GLM-4.6(智谱) | `
OPENCLAW_MODEL_PROVIDER=zhipu` + `ZHIPU_API_KEY`, `ZHIPU_BASE_URL` | `https://open.bigmodel.cn/api/paas/v4/` | 需申请智谱 AI Key,模型名填 `glm-4-flash` [ref_4] | | 百炼(阿里云openclaw skills 教程) | `
OPENCLAW_MODEL_PROVIDER=baichuan` + `DASHSCOPE_API_KEY` | `https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation` | 需开通百炼平台
获取 API Key [ref_3] | | vLLM(Qwen3-4B) | `
OPENCLAW_MODEL_PROVIDER=vllm` + `VLLM_BASE_URL` | `http://localhost:8000/v1` | 需单独
部署 vLLM 服务:`vllm serve –model Qwen/Qwen3-4B-Instruct` [ref_5] | ✅ 验证模型连通性(CLI 测试): bash curl -X POST “http://localhost:18789/api/v1/chat/completions” -H “Content-Type: application/json” -d ‘{ “model”: “qwen:3b”, “messages”: [{“role”:”user”,”content”:”你好,请用中文自我介绍”}] }’ — ✅ 步骤 4:
飞书机器人集成(企业协作必备) 1. 登录 [
飞书开放平台]
(https://open.feishu.cn/
) → 创建「自建应用」→ 获取 `App ID` / `App Secret` 2. 在「机器人」菜单中创建群机器人,复制 Webhook 地址 3. 在
OpenClaw Web UI(`http://:18789`)中进入 Settings → Bot Integration → Feishu – 填入 `App ID`, `App Secret`, `Verification Token`, `Encrypt Key` – 启用「事件订阅」
勾选 `message.receive_v1`, `im.message_reaction_v1` – 发布应用版本(否则事件不生效)[ref_1][ref_2] > ✅ 成功标志:在
飞书群中 @机器人发送 `/help`,将返回 Skills 列表 [ref_6]。 — ✅ 步骤 5:生产级运维保障 | 项目 | 实现方式 | 命令示例 | 来源 | |——|———–|————|——| | 开机自启 | systemd 服务封装 | `sudo systemctl enable
openclaw.service` [ref_1] | | 日志查看 | Docker 日志流 | `docker logs -f
openclaw` 或 `journalctl -u
openclaw -f` | [ref_1] | | Skills 安装 | Web UI 插件市场一键安装 | 访问 `http://ip:18789/#/skills` → 搜索 `calendar`, `notion`, `jira` | [ref_3][ref_6] | | HTTPS 反代 | Nginx + Let’s Encrypt | 使用 Certbot 自动签发证书,反向代理至 `127.0.0.1:18789` | [ref_4] | 📌 systemd 服务模板(`/etc/systemd/system/
openclaw.service`): ini [Unit] Description=
OpenClaw AI Gateway After=docker.service Wants=docker.service [Service] Type=oneshot ExecStart=/usr/bin/docker start -a
openclaw ExecStop=/usr/bin/docker stop -t 2
openclaw Restart=always RestartSec=10 [Install] WantedBy=multi-user.target — 📊 三、
部署效果对比(Docker vs Node.js) | 维度 | Docker
部署 | Node.js
部署 | |——|————–|—————-| | 耗时 | ≤10 分钟 | 15–30 分钟(依赖编译) | | 隔离性 | 进程/网络/文件系统完全隔离 | 依赖全局 Node.js 版本,易冲突 | | 升级维护 | `docker pull && docker restart` 一键更新 | `git pull && npm install && pm2 reload` | | 调试能力 | 日志集中,但源码不可见 | 支持 VS Code 断点调试、`console.log` 实时输出 [ref_4] | | 适用场景 | 企业交付、SaaS 私有化、CI/CD 集成 | 技术预研、Skills 插件开发、教育演示 | — 🧩 四、典型问题速查(附解决方案) | 错误现象 | 根本原因 | 解决命令/操作 | |———-|————|—————-| | `Error: EACCES: permission denied, mkdir ‘/app/data’` | Docker 容器无宿主机目录写权限 | `sudo chown -R $USER:$USER /opt/
openclaw` [ref_4] | | `409 Conflict: Model already exists` | Ollama 中重复拉取同名模型 | `ollama rm qwen:3b && ollama pull qwen:3b` [ref_2] | |
飞书事件无响应 | 应用未发布或 IP 白名单未
配置 | 在
飞书后台检查「IP白名单」添加服务器公网IP [ref_1] | | Web UI 打不开(Connection refused) | 防火墙拦截或端口被占用 | `sudo ss -tuln | grep 18789` + `sudo ufw status` | — ✅ 至此,
OpenClaw 已在
Linux 环境完成全链路
部署: ✅ 可通过 `http://:18789` 访问可视化管理后台 ✅ 支持对接 Ollama/GLM-4.6/百炼/vLLM 等主流模型 ✅ 已集成
飞书机器人实现群聊智能响应 ✅ 具备 systemd 自启、日志监控、Skills 扩展等企业级能力 该方案已在阿里云轻量服务器(2C4G)、
本地 Ubuntu 22.04 物理机、WSL2 环境中稳定运行超 30 天,平均响应延迟 < 800ms(Qwen3-4B + vLLM)[ref_3][ref_5]。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:Ai探索者,转载请注明出处:https://javaforall.net/277928.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月14日 上午7:56
下一篇 2026年3月14日 上午7:56


相关推荐

关注全栈程序员社区公众号