单机本地真助手!华硕GX10 OpenClaw安装指南

单机本地真助手!华硕GX10 OpenClaw安装指南

最近大家对搭建专属的 Claw Bot 都挺有热情的,但是对于自己每天工作的win系统有点怕OpenClaw给自己弄爆炸,所以一般都会选择mac或者linux主机。但这些机器即使安装完毕,像Mac mini或者主机没有独显的话,性能很难跑大规模的模型。如果需要用到各大公司的API,买token也不便宜,网传最贵的一条命令烧了20刀的token!OpenClaw的安全性问题也反复被提及,一方面是这个项目本身对系统操作的权限很大,另一方面也有数据上行时的安全问题。

单机本地真助手!华硕GX10 OpenClaw安装指南

所以要做到单机本地运行OpenClaw就能很大程度上这样的问题。如此一来,我觉得还是需要可以运行大型模型的机器,而有独显的机器往往提及都比较大,但是我之前入手的华硕GX10(本质Nvidia DGX Sparkopenclaw 安装的GB10)我感觉就挺适合。这台机器一方面是体积小,另一方面深度学习的性能也远超常规独显机,能本地跑70B甚至120B的模型。所以这次我就做一期 OpenClaw 安装教程吧。

单机本地真助手!华硕GX10 OpenClaw安装指南
单机本地真助手!华硕GX10 OpenClaw安装指南
单机本地真助手!华硕GX10 OpenClaw安装指南
单机本地真助手!华硕GX10 OpenClaw安装指南

很多朋友在面对 Mac 和 Linux 系统的区别的时候容易在配置环境变量时踩坑。我这里就详细拆解 Mac 和 Linux 的不同操作步骤,一步一步讲清楚都有哪些步骤

OpenClaw 是基于 Node.js 运行的,所以我们首先要为它准备好基础的运行环境。这里强烈建议大家使用 NVM(Node Version Manager)来安装 Node.js,这样可以极大地避免后续版本冲突的问题。无论是 Mac 还是 Linux,都可以直接运行以下命令下载并执行 NVM 安装脚本:

单机本地真助手!华硕GX10 OpenClaw安装指南

curl -o- raw.githubusercontent.com | bash

安装完成后,需要让系统识别到 NVM。运行下面这行命令激活它

\. “$HOME/.nvm/nvm.sh”

我们需要安装 OpenClaw 支持的 Node 版本,openclaw这种最新的项目已经支持了最新的Node,所以我就直接装的24版本:

nvm install 24

安装完毕后,输入node -v到命令行可以验证安装

Homebrew 是 macOS 和 Linux 上的包管理器,openclaw会用这个来安装插件和sub-agent,所以这其实是一个必要的组件,在openclaw onboarding的时候会让你安装,但是不会打断,所以很多朋友都会疑惑为什么onboarding结束还是用不了。

Mac 和 Linux 都可以使用同一条命令进行下载安装:

/bin/bash -c “$(curl -fsSL raw.githubusercontent.com)”

安装完之后,必须把 Brew 添加到系统的环境变量里,否则系统会提示找不到命令。这里根据你的操作系统对号入座:

Linux(如 Ubuntu 等)需要将环境变量写入 .bashrc 文件中。依次运行:

echo >> ~/.bashrc

echo ‘eval “$(/home/linuxbrew/.linuxbrew/bin/brew shellenv bash)”‘ >> ~/.bashrc

eval “$(/home/linuxbrew/.linuxbrew/bin/brew shellenv bash)”

现代 Mac 默认使用的是 zsh 终端,且 Homebrew 的安装路径与 Linux 完全不同,需要运行的是:

echo >> ~/.zprofile

echo ‘eval “$(/opt/homebrew/bin/brew shellenv bash)”‘ >> ~/.zprofile

eval “$(/opt/homebrew/bin/brew shellenv bash)”

环境搭好了,接下来就是安装 OpenClaw 本体!得益于前面的铺垫,这一步非常简单。

全局安装最新版本的 OpenClaw: npm install -g openclaw@latest

安装完成后,执行初始化/引导程序。跟着屏幕上的中文/英文提示,绑定你的相关账号或配置项: openclaw onboard

单机本地真助手!华硕GX10 OpenClaw安装指南

在配置的时候需要先选择一个模型提供商,我这里建议使用国内的提供商,例如moonshot或者zhipuAI,使用API调用免费额度

单机本地真助手!华硕GX10 OpenClaw安装指南

另外channel选择建议使用telegram和discord,这两者都支持Bot API,是最方便接入openclaw的程序,且也都支持手机使用

单机本地真助手!华硕GX10 OpenClaw安装指南

接下来就是技能安装,某些技能需要使用google和openAI服务,可以选择不装

单机本地真助手!华硕GX10 OpenClaw安装指南
单机本地真助手!华硕GX10 OpenClaw安装指南
单机本地真助手!华硕GX10 OpenClaw安装指南

在onboarding完成后,openclaw就可以启动了

单机本地真助手!华硕GX10 OpenClaw安装指南

下一步打开你选择的移动终端(或者discord的PC终端),使用官方提供的方法,创建一个bot,这个bot的聊天将是我们使用openclaw最直接的方式

单机本地真助手!华硕GX10 OpenClaw安装指南

在生成之后会有一个bot key,这个key是需要保密的,把这个key输入GX10上的openclaw,这个链接就算是大功告成了。不过为了应对网络连接问题,最好使用具有全局模式或者TUN模式的代理,以便openclaw能够收到消息。在连接完成之后,可以使用发一个消息,用我刚才提到的国产AI的免费额度测试一下。

OpenClaw最大的使用成本就是大语言模型(LLM)的Token,一般的机器可能必须使用在线API服务,但是对于GX10这样的桌面级高算力mini主机,直接使用 Ollama 在本地部署大模型,不仅省了token,数据隐私也能更安全。

首先我们需要安装Ollama,Linux 用户接运行官方准备好的极简一键安装脚本:

curl -fsSL ollama.com/install.sh | sh

对于Mac 用户虽然上述脚本有时也兼容,但在 Mac 上最稳定、最推荐的安装方式是直接去 Ollama 官网下载 .zip 客户端拖入应用程序。我建议先用脚本,没用再自己下载。

安装好了之后,我们可以直接启动 Ollama 并拉取你需要的模型: 对于GX10这种显存巨大的机器,可以使用

ollama run gpt-oss:120b

最后,让大模型和OpenClaw建立连接,完成最后的启动:

ollama launch openclaw

单机本地真助手!华硕GX10 OpenClaw安装指南

此时我们重启openclaw,这样可以看到,我们的openclaw已经跑在了本地的ollama上,因此不再需要联网的API

单机本地真助手!华硕GX10 OpenClaw安装指南

现在,我们就能开始用手机玩openclaw的bot了,小主机和我们的操作系统隔离,也不用担心系统坏掉,GX10的性能足够强,因此也能支撑起本机部署,确实是个不错的选择。

单机本地真助手!华硕GX10 OpenClaw安装指南
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/254474.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月13日 下午1:04
下一篇 2026年3月13日 下午1:04


相关推荐

关注全栈程序员社区公众号