最近大家对搭建专属的 Claw Bot 都挺有热情的,但是对于自己每天工作的win系统有点怕OpenClaw给自己弄爆炸,所以一般都会选择mac或者linux主机。但这些机器即使安装完毕,像Mac mini或者主机没有独显的话,性能很难跑大规模的模型。如果需要用到各大公司的API,买token也不便宜,网传最贵的一条命令烧了20刀的token!OpenClaw的安全性问题也反复被提及,一方面是这个项目本身对系统操作的权限很大,另一方面也有数据上行时的安全问题。

所以要做到单机本地运行OpenClaw就能很大程度上这样的问题。如此一来,我觉得还是需要可以运行大型模型的机器,而有独显的机器往往提及都比较大,但是我之前入手的华硕GX10(本质Nvidia DGX Sparkopenclaw 安装的GB10)我感觉就挺适合。这台机器一方面是体积小,另一方面深度学习的性能也远超常规独显机,能本地跑70B甚至120B的模型。所以这次我就做一期 OpenClaw 安装教程吧。




很多朋友在面对 Mac 和 Linux 系统的区别的时候容易在配置环境变量时踩坑。我这里就详细拆解 Mac 和 Linux 的不同操作步骤,一步一步讲清楚都有哪些步骤
OpenClaw 是基于 Node.js 运行的,所以我们首先要为它准备好基础的运行环境。这里强烈建议大家使用 NVM(Node Version Manager)来安装 Node.js,这样可以极大地避免后续版本冲突的问题。无论是 Mac 还是 Linux,都可以直接运行以下命令下载并执行 NVM 安装脚本:

curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh | bash
安装完成后,需要让系统识别到 NVM。运行下面这行命令激活它
\. “$HOME/.nvm/nvm.sh”
我们需要安装 OpenClaw 支持的 Node 版本,openclaw这种最新的项目已经支持了最新的Node,所以我就直接装的24版本:
nvm install 24
安装完毕后,输入node -v到命令行可以验证安装
Homebrew 是 macOS 和 Linux 上的包管理器,openclaw会用这个来安装插件和sub-agent,所以这其实是一个必要的组件,在openclaw onboarding的时候会让你安装,但是不会打断,所以很多朋友都会疑惑为什么onboarding结束还是用不了。
Mac 和 Linux 都可以使用同一条命令进行下载安装:
/bin/bash -c “$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)”
安装完之后,必须把 Brew 添加到系统的环境变量里,否则系统会提示找不到命令。这里根据你的操作系统对号入座:
Linux(如 Ubuntu 等)需要将环境变量写入 .bashrc 文件中。依次运行:
echo >> ~/.bashrc
echo ‘eval “$(/home/linuxbrew/.linuxbrew/bin/brew shellenv bash)”‘ >> ~/.bashrc
eval “$(/home/linuxbrew/.linuxbrew/bin/brew shellenv bash)”
现代 Mac 默认使用的是 zsh 终端,且 Homebrew 的安装路径与 Linux 完全不同,需要运行的是:
echo >> ~/.zprofile
echo ‘eval “$(/opt/homebrew/bin/brew shellenv bash)”‘ >> ~/.zprofile
eval “$(/opt/homebrew/bin/brew shellenv bash)”
环境搭好了,接下来就是安装 OpenClaw 本体!得益于前面的铺垫,这一步非常简单。
全局安装最新版本的 OpenClaw: npm install -g openclaw@latest
安装完成后,执行初始化/引导程序。跟着屏幕上的中文/英文提示,绑定你的相关账号或配置项: openclaw onboard

在配置的时候需要先选择一个模型提供商,我这里建议使用国内的提供商,例如moonshot或者zhipuAI,使用API调用免费额度

另外channel选择建议使用telegram和discord,这两者都支持Bot API,是最方便接入openclaw的程序,且也都支持手机使用

接下来就是技能安装,某些技能需要使用google和openAI服务,可以选择不装



在onboarding完成后,openclaw就可以启动了

下一步打开你选择的移动终端(或者discord的PC终端),使用官方提供的方法,创建一个bot,这个bot的聊天将是我们使用openclaw最直接的方式

在生成之后会有一个bot key,这个key是需要保密的,把这个key输入GX10上的openclaw,这个链接就算是大功告成了。不过为了应对网络连接问题,最好使用具有全局模式或者TUN模式的代理,以便openclaw能够收到消息。在连接完成之后,可以使用发一个消息,用我刚才提到的国产AI的免费额度测试一下。
OpenClaw最大的使用成本就是大语言模型(LLM)的Token,一般的机器可能必须使用在线API服务,但是对于GX10这样的桌面级高算力mini主机,直接使用 Ollama 在本地部署大模型,不仅省了token,数据隐私也能更安全。
首先我们需要安装Ollama,Linux 用户接运行官方准备好的极简一键安装脚本:
curl -fsSL https://ollama.com/install.sh | sh
对于Mac 用户虽然上述脚本有时也兼容,但在 Mac 上最稳定、最推荐的安装方式是直接去 Ollama 官网下载 .zip 客户端拖入应用程序。我建议先用脚本,没用再自己下载。
安装好了之后,我们可以直接启动 Ollama 并拉取你需要的模型: 对于GX10这种显存巨大的机器,可以使用
ollama run gpt-oss:120b
最后,让大模型和OpenClaw建立连接,完成最后的启动:
ollama launch openclaw

此时我们重启openclaw,这样可以看到,我们的openclaw已经跑在了本地的ollama上,因此不再需要联网的API

现在,我们就能开始用手机玩openclaw的bot了,小主机和我们的操作系统隔离,也不用担心系统坏掉,GX10的性能足够强,因此也能支撑起本机部署,确实是个不错的选择。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/254474.html原文链接:https://javaforall.net
