本文档详细介绍了如何在BCC服务器上配置使用开源AI助手OpenClaw(原名:Moltbot/Clawdbot)的完整流程。 部署过程主要包括:
- 在云服务器BCC控制台创建实例,通过一键安装脚本完成部署以及初始化;
- 使用千帆完成文心系列、Qwen系列、Deepseek系列等主流模型配置,快速将百度大模型能力集成到机器人应用中。
OpenClaw是一个能”指挥”计算机的全天候数字员工(Agent),通过连接通讯软件和大模型API,实现对电脑的自动化操作。基于 OpenClaw 框架提供以下核心功能:
- 文件操作:读写/编辑文件(read/write/edit),管理项目文档。
- 终端执行:运行 Shell 命令(exec),支持后台任务与交互式 CLI。
- 内存管理:通过 MEMORY.md 和 memory/YYYY-MM-DD.md 持续学习上下文。
- 跨会话协作:通过 sessions_spawn 调度子代理处理复杂任务。
步骤一:在BCC控制台创建一台云服务器实例(需要配置EIP公网)。
- 推荐规格:建议您选择CPU:2核,内存:2GB或以上的套餐配置
- 镜像:推荐Ubuntu 24.04
- 系统盘:20GB或以上
- 公网带宽:按流量计费或者按固定带宽均可

步骤二:通过SmartTerm或者VNC登录BCC执行官方一键安装的脚本命令 ,更多部署方式可以参考OpenClaw 的安装指引。

步骤三:等待所有依赖执行完毕。若需要自定义配置,使用 命令可以重新开始启动配置向导。
步骤四:完成OpenClaw的初始化并且启动进入TUI模式。

步骤一:在千帆控制台模型服务里面选择要使用的模型(本文档使用),可以新建或者选择已有的API Key。

步骤二:新启动一个窗口,使用以下内容替换,注意将API Key替换成步骤一种获取到的,如果选择了其他模型可以将按照格式在models配置里面增加即可。
步骤三:使用重新启动网关配置,并且使用查看当前配置的模型情况。使用查看配置是否生效。

步骤四:回到刚才代开的TUI即可进一步体验openClaw的功能。如果遇到问题可以使用重新进入引导配置,切换模型需要使用清理Session,不然无法生效新模型。

步骤五(可选):如果需要更换模型或者其他配置可以使用重新进入引导配置,并且参考一下配置进行选择,两次可以推出TUI模式。

更多使用指南参考官方指南。
发布者:Ai探索者,转载请注明出处:https://javaforall.net/251037.html原文链接:https://javaforall.net
