Docker Compose 部署 OpenClaw,并使用 XAI Router 的 MiniMax-M2.1

Docker Compose 部署 OpenClaw,并使用 XAI Router 的 MiniMax-M2.1

本文将带你用一个开源模板仓库,通过 Docker Compose 快速部署 OpenClaw Gateway,并将默认模型指向 XAI Router 的 MiniMax-M2.1

  • 模板仓库:https://github.com/xaixagent/openclaw
  • 默认协议:OpenAI Chat Completions()
  • 你只需openclaw 部署要:(XAI Router 原生兼容 OpenAI 的 API 路径)
  1. 一个可长期运行的 容器(默认端口 )
  2. 一个 OpenAI Chat API 兼容入口:
  3. 默认主模型:(由配置文件决定,不需要改你的业务代码)
  • 一台 Linux 机器(本地或服务器均可)
  • 已安装 Docker 与 Docker Compose(能运行 、)
  • 一个 XAI Router API Key(形如 )

这个目录里最关键的文件:

  • :定义 与
  • :环境变量模板
  • :默认配置(MiniMax-M2.1 + Chat Completions)

注意: 里会保存密钥,请不要提交到 Git 仓库。

编辑 ,至少需要两项:

  • :你的 XAI Router Key
  • :Gateway 的访问令牌(用于 HTTP )

生成一个随机的 (两选一即可;建议 32 字节/64 位十六进制字符串):

或:

一个最小可用的 示例:

说明:

  • 默认就是 ,里面已经配置好主模型为 。
  • 在 Docker 场景里,服务需要监听 才能被端口映射访问,所以保持 (默认值)即可。

查看运行状态:

查看启动日志(第一次启动建议看一下):

在同一台机器执行:

你会收到一个 OpenAI Chat Completions 风格 的 JSON 响应。

这不是上游模型名,而是 OpenClaw Gateway 的“统一模型名”。

  • 你的应用侧:始终写
  • 真正的上游模型:由配置决定(本模板默认为 )

想确认默认模型,可以直接打开:,你会看到类似配置:

只要把 OpenAI SDK 的:

  • 指向你的 Gateway:

即可像调用 OpenAI 一样调用 OpenClaw。

Node.js( SDK)示例:

停止并删除容器(保留数据目录 ):

升级镜像并重启:

如果你需要“彻底重置”(会清掉会话/状态数据),可以:


想了解 OpenClaw 通过 XAI Router 接入更多模型/协议,可参考:/blog/openclaw/

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:Ai探索者,转载请注明出处:https://javaforall.net/254689.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月13日 下午12:53
下一篇 2026年3月13日 下午12:53


相关推荐

关注全栈程序员社区公众号