本文将带你用一个开源模板仓库,通过 Docker Compose 快速部署 OpenClaw Gateway,并将默认模型指向 XAI Router 的 MiniMax-M2.1。
- 模板仓库:https://github.com/xaixagent/openclaw
- 默认协议:OpenAI Chat Completions()
- 你只需openclaw 部署要:(XAI Router 原生兼容 OpenAI 的 API 路径)
- 一个可长期运行的 容器(默认端口 )
- 一个 OpenAI Chat API 兼容入口:
- 默认主模型:(由配置文件决定,不需要改你的业务代码)
- 一台 Linux 机器(本地或服务器均可)
- 已安装 Docker 与 Docker Compose(能运行 、)
- 一个 XAI Router API Key(形如 )
这个目录里最关键的文件:
- :定义 与
- :环境变量模板
- :默认配置(MiniMax-M2.1 + Chat Completions)
注意: 里会保存密钥,请不要提交到 Git 仓库。
编辑 ,至少需要两项:
- :你的 XAI Router Key
- :Gateway 的访问令牌(用于 HTTP )
生成一个随机的 (两选一即可;建议 32 字节/64 位十六进制字符串):
或:
一个最小可用的 示例:
说明:
- 默认就是 ,里面已经配置好主模型为 。
- 在 Docker 场景里,服务需要监听 才能被端口映射访问,所以保持 (默认值)即可。
查看运行状态:
查看启动日志(第一次启动建议看一下):
在同一台机器执行:
你会收到一个 OpenAI Chat Completions 风格 的 JSON 响应。
这不是上游模型名,而是 OpenClaw Gateway 的“统一模型名”。
- 你的应用侧:始终写
- 真正的上游模型:由配置决定(本模板默认为 )
想确认默认模型,可以直接打开:,你会看到类似配置:
只要把 OpenAI SDK 的:
- 指向你的 Gateway:
- 填
即可像调用 OpenAI 一样调用 OpenClaw。
Node.js( SDK)示例:
停止并删除容器(保留数据目录 ):
升级镜像并重启:
如果你需要“彻底重置”(会清掉会话/状态数据),可以:
想了解 OpenClaw 通过 XAI Router 接入更多模型/协议,可参考:/blog/openclaw/
发布者:Ai探索者,转载请注明出处:https://javaforall.net/254689.html原文链接:https://javaforall.net
