还不会“养龙虾”?别急,锐龙AI Max本地大模型+OpenClaw安装教程来了

还不会“养龙虾”?别急,锐龙AI Max本地大模型+OpenClaw安装教程来了

图片

不知道大家有没有发现,这个周末以来,几乎所有人都在“养龙虾”,都变成了“养虾人”。这里的龙虾不是别的,是今年爆火的AI助手——OpenClaw。早在今年一月份,OpenClaw就火爆出圈,成为历史上增长最快的开源项目之一。如今,随着国内大模型厂商、互联网巨头的不断跟进,OpenClaw一时间成为最火的话题,热度堪比当初的。那么OpenClaw究竟有什么用?普通用户又该如何安装、部署它呢?

openclaw skills 教程

01

OpenClaw是什么?

简单来讲,OpenClaw是一款在本地或自托管环境运行的开源AI助手,它是一款自主智能体,可以通过大模型执行任务,主要的用户界面是社交聊天平台。OpenClaw可以部署在macOS、Windows或者Linux平台,接入大模型之后,用户可以通过WhatsApp、Telegram、Slack、Discord、iMessage、Signal、飞书和等社交工具与它交互、对话。

图片

OpenClaw除了能够像大模型那样回答问题,它还可以执行Shell指令、控制你的浏览器、读取或者写入文件、管理你的日程,甚至发送电子邮件、打开特定的应用程序等,这些都由你与OpenClaw沟通时所发的文字消息触发。

图片

总体来讲,如果你在安装OpenClaw的设备上给它足够的权限,那么它可以在你的指示下像人类一样操控电脑。正因如此,OpenClaw才被称为真正的“贾维斯”。另一方面,也正因如此,OpenClaw团队才会在大家安装OpenClaw的时候弹出安全风险提醒。众多开发者也建议用户将其安装在备用PC上体验,并时刻注意安全风险。

OpenClaw的火爆已经对现实世界产生了实际影响。首先,安装和部署OpenClaw需要PC设备或者云服务器,它的火爆直接促进了PC设备、云服务器销量的上升。另外,OpenClaw目前已经在国内成为现象级风暴,前有腾讯免费帮用户安装OpenClaw,后有各地政策明确支持“养龙虾”。

图片

现在,包括字节跳动、腾讯、华为、小米、阿里巴巴、百度、智谱、MiniMax和360在内的国内互联网大厂和大模型厂商都在积极跟进OpenClaw,并推出对应的配套产品。因为OpenClaw本身只是一个工具,需要给它装上大模型的“脑袋”才能用,而且它的技能又非常多,它非常聪明,所以在这样的背景下,普遍认为OpenClaw会彻底释放国内算力需求,将国内的AI体验带到新的高度。

02

如何安装OpenClaw?

OpenClaw是一个AI助手工具,它并不是一个应用程序,所以目前来说安装它会有点麻烦,特别是如果你不懂命令行的话。不过只要你准备好所有前置条件,安装OpenClaw还是非常简单,更难的或许是你准备用它来做什么。

系统要求

macOS / Linux / Windows(必须用WSL2)

Node.js v22或更高版本

一个大模型API密钥

一个聊天平台的账号(、飞书等)

首先来看看安装OpenClaw的系统要求。OpenClaw是一个工具,它可以安装在macOS、Linux和Windows系统上,它本身有点像是一个可以帮你做事情的网关,需要外接AI大模型来给他装“大脑”,所以如果你只是安装OpenClaw,而不是在本地部署大模型的话,那么它对硬件的要求并不高,主流的笔记本电脑都能安装它。在它的系统要求里,最难的其实是找到合适的大模型API密钥。

OpenClaw需要通过API密钥来外接大模型使用,在这一步你就需要思考用哪家大模型公司的API,而且需要注意的是,大多数API密钥都要收费,有的是按API的调用次数收费,有的则是按消耗的Token数量收费。

还有一种免费的方式,就是让OpenClaw接入本地部署的大模型API,这样在使用时完全不用花钱,Token自然也是无限量的。当前免费本地部署大模型主要有三种选项,而综合考虑价格和性能的话,搭载AMD锐龙AI Max+ 300系列平台的Mini AI工作站或者笔记本无疑是最佳选择。我们就基于AMD锐龙AI Max+ 395处理器的系统来进行部署。

最后还得准备一个聊天平台的账号,这主要是为了在使用OpenClaw时方便我们与它交互,虽然我们可以在Web网页中与之交互,但是论便捷性还是聊天平台更方便。更重要的是,目前已经正式接入OpenClaw,大家再也不用费力地接入飞书或者国外聊天平台了。

了解了前置条件之后,接下来我们教大家在搭载锐龙AI Max+ 395处理器的Windows平台部署本地大模型并安装OpenClaw。

1.下载安装Node.js

https://nodejs.org/zh-cn/download

图片

首先需要打开浏览器,进入Node.js官网下载安装最新版Node.js。安装它比较简单,傻瓜式地点击下一步即可,需要注意的是,在自定义设置时,一定要确保“Add to PATH”这个选项是被勾选的(或者显示为“Will be installed on local hard drive”)。

安装好之后可以验证一下,同时按住Windows键和R键,弹出“运行”对话框,输入“Powershell”之后回车,在PowerShell窗口中输入“node -v”,如果看到v22.x.x 或更高的版本号,那就说明Node.js已经安装成功。

2.下载安装Git

https://git-scm.com/install/windows

图片

Git是一款免费开源的分布式版本控制系统,用于追踪代码文件的修改历史、支持多人协作开发,且既可以通过命令行也可以通过图形界面操作。我们需要用它来拉取OpenClaw的远程代码。安装过程非常简单,默认设置下一直点下一步就行。

3.进入OpenClaw官网复制一键安装命令

https://openclaw.ai/

图片

OpenClaw提供三种安装方式:一键脚本安装(推荐新手)、npm全局安装(推荐普通用户)和源码安装(推荐开发者)。我们以Windows一键脚本安装方式为例,教大家安装OpenClaw。

图片

我们选择CMD命令行的方式来安装:在Windows搜索栏输入CMD,选择以管理员身份运行“命令提示符”。然后在命令提示符中输入以下安装命令并回车。

curl -fsSL https://openclaw.ai/install.cmd -o install.cmd && install.cmd && del install.cmd

图片

系统会自动检测和安装所需的软件,如果没有问题,将进入OpenClaw的初始界面。

图片

选择快速开始

图片

接下来选择大模型提供商。OpenClaw支持OpenAI、谷歌、MiniMax、智谱、千问、月之暗面、小米、Anthropic和xAI等多家大模型产品,同时也支持接入本地模型。为了尽可能保护隐私数据,同时也能免费获得海量token的AI算力,我们在这里直接教大家接入本地大模型。

图片

图片

在进行下一步之前,我们可以暂停安装OpenClaw,转而在PC上先把本地大模型部署好。在AMD锐龙AI Max+ 395迷你AI工作站上,我们通过LM Studio在本地服务中部署了一个qwen3-30b-a3b模型,同时在设置中开启本地服务的API密钥。我们需要记下这些API密钥和LM Studio的地址和端口,即http://127.0.0.1:1234。同时还要记住API模型的名字:qwen3-30b-a3b。

图片

接下来在OpenClaw初始页面中选择vLLM本地大模型服务,填写LM Studio的本地服务地址(http://127.0.0.1:1234/v1)、大模型名称以及API密钥即可。

图片

接下来需要设置OpenClaw交互的聊天工具,可以看到初始页面中只有飞书,如果大家嫌麻烦,这一步可以先跳过。

图片

接下来设置OpenClaw的搜索服务商,它只支持Kimi、、Gemini、Brave和Perplexity。这一步我们也可以先跳过。

图片

选择是否安装skills,暂时先跳过。

图片

Hooks提供了一个可扩展的事件驱动系统,用于响应智能体命令和事件自动执行操作。在这里,我们可以选择先跳过。

图片

最后一步,选择交互方式。因为前面没有配置任何聊天工具,所以在这里我们选择以Web UI的方式与OpenClaw交互。选择之后,浏览器会自动跳出一个本地网页,我们可以在本地网页中修改OpenClaw的配置或者与之交互。

图片

在本地网页的聊天窗口中,如果OpenClaw可以回答你的问题,那么我们此次最基础的安装工作就结束了,现在你可以正常使用OpenClaw。不过新版OpenClaw在安全方面做了更多工作,初始安装的默认设置下,它只能聊天,无法操作电脑。我们还需要进一步修改设置。

图片

在本地网页的配置页面,点击“Raw”修改OpenClaw的配置,将“tools”对应的“profile”改为“full”即可解锁OpenClaw的能力。需要说明的是,在“full”设置下,OpenClaw将解锁完全的权限,如果你是新手或者在主力PC上安装OpenClaw,不建议如此操作。总之,请时刻留意数据安全。

03

将OpenClaw接入

用聊天软件与OpenClaw交互是最便捷的渠道,不过OpenClaw最开始火爆的时候,只支持几个国外聊天平台,连飞书都不支持。后来“民间大神”开发出了接入飞书的插件,不过需要用户自行创建飞书机器人并进行一系列配置,稍显麻烦。而那个时候,微信和等主流工具还完全不支持接入OpenClaw。

图片

就在最近,随着OpenClaw在国内的火爆,腾讯及时跟进,官方推出了可以接入OpenClaw的机器人。大家只需要在以下网站扫码注册即可使用。

https://q..com/bot/openclaw/login.html

图片

注册开通机器人之后,我们能看到自己的机器人接入密钥,以及接入OpenClaw的命令行。在安装OpenClaw的PC上打开CMD命令提示行,依次输入安装机器人的命令行即可完成配置。

图片

配置好之后,我们在中即可与OpenClaw交互,非常便捷。

04

装好OpenClaw之后能做什么?

OpenClaw真正厉害的地方在于它的技能系统(Skills)。Skills是预制的能力包,安装一个Skill,OpenClaw就多学会一项新技能,它甚至能变成各种领域的专家。目前OpenClaw的技能市场ClawHub有超过10000个技能,覆盖各种场景。通过安装这些Skills,你可以让它学会浏览网页、定时执行任务、对接外部API或者控制智能家居等。

图片

OpenClaw也内置了不少Skills,包括浏览器控制、定时任务等。比如我们在AMD锐龙AI Max+ 395迷你AI工作站上通过本地大模型接入OpenClaw,然后让OpenClaw打开京东查询锐龙AI Max+ 395迷你AI工作站的价格,它在一番“思考”过后真的会打开PC上的浏览器,自动进入京东官网去搜索关键字,最后呈现出我要的结果。

图片

再比如,让OpenClaw打开百度搜索“OpenClaw”,它也能马上做到。

图片

甚至,我们让OpenClaw自行搜索有关锐龙7 H 260处理器的相关信息之后,让它将搜集整理的信息保存在PC桌面的TXT文档中,OpenClaw很快就完成了任务。

05

使用本地大模型的好处

本次教程我们主要聚焦于用本地大模型接入OpenClaw,因为OpenClaw非常“吃”Token,如果使用云端大模型的API——这些API大多数都是收费的——按照OpenClaw的计费标准,输入是5美元/百万token,输出是25美元/百万token。这对于长时间运行、超长上下文、频繁调用工具及Skills的OpenClaw来说,成本会随着任务复杂度迅速累积。超高的费用,这不是一般的初创团队、中小企业和普通人能承受的。所以长期使用本地大模型,反而更有优势。

此外,用本地模型替代云端模型之后,整个智能体的链路不再每次调用都支付双向的API费用,只需要一次性的硬件投入就能让高频自动化任务不再“烧Token”和“烧钱”。毕竟在本地部署各种开源大模型之后接入OpenClaw,Token数量是无限而且免费的。

另外,使用云端大模型还有隐私和安全方面的重大隐患。我们知道OpenClaw允许智能体在本机执行Shell、读写文件或者调用脚本,一旦通过云端大模型做“思考”和决策,攻击者就可以通过提示词注入或恶意数据,远程诱导大模型下指令,让OpenClaw在你的电脑上执行危险操作。

图片

此外,为了让云端大模型“理解上下文”,OpenClaw可能还会把聊天记录、文件片段甚至密码提示、聊天历史等内容打包发给外部模型服务,这些内容一旦进入云端就受制于对方的隐私策略、日志策略和潜在的数据滥用风险。

特别是对企业用户来讲,当OpenClaw搭配Ollama、LM Studio在本地通过GPU跑模型时,推理全过程(理解指令、读取文件和生成结果)都在本机完成,提示词、文档和中间产物不会发往云端API,这对财务报表、法律文书和客户数据等敏感场景非常关键。

06

OpenClaw的最佳硬件拍档

AMD锐龙AI Max+ 395平台

本地模型对于OpenClaw而言很有优势,那么目前最适合在本地部署大模型的平台是什么呢?答案是AMD锐龙AI Max+ 395平台。

图片

AMD锐龙AI Max+ 395处理器采用“CPU+IGPU+NPU”异构架构,集成16大核心Zen 5 CPU、RDNA 3.5图形单元及高达50 TOPS算力的NPU,更是通过UMA统一内存架构支持最高128GB内存,其中96GB可专用于显存。这彻底解决了本地大模型运行中的“显存焦虑”,使得其能够在本地流畅运行千亿参数规模的模型。

图片

自正式发布以来,AMD锐龙AI Max+ 395处理器凭借强大的性能表现和出色的大模型部署表现,开辟出全新的迷你AI工作站细分市场。更重要的是,目前基于AMD锐龙AI Max+ 395处理器的迷你AI工作站产品已经进入千行百业,为用户带来领先的AI体验。

图片

更重要的是,AMD锐龙AI Max+ 395迷你AI工作站非常适合用来部署本地大模型。根据我们以往的测试成绩,该平台能够畅跑70B稠密大模型(推理速度达到5.84 tokens/s),对于120B的MoE大模型,它的推理速度更是高达48.05 tokens/s,应对80B、30B等主流的MoE模型几乎是小菜一碟。

另外,由于AMD锐龙AI Max+ 395平台最高支持128GB内存,最高可分配96GB空间作为显存,因此它在部署大模型时具备相当充裕的硬件空间。我们在64GB显存的设置下尝试同时部署三个大模型:两个30B MoE大模型和一个14B稠密大模型。部署这三个大模型之后,系统只占用了大约50GB显存,剩下的硬件空间还比较充裕。

图片

对OpenClaw用户来讲,将OpenClaw接入AMD锐龙AI Max+ 395平台部署的本地大模型之后,在使用OpenClaw的过程中可以同时接入多个模型同步调用,或者随时切换各种所需的大模型,若是换成其他Windows 11的独显平台,非但无法部署规模超大的模型(要知道台式机独显RTX 5090也仅有32GB显存),就算勉强部署,硬件空间也非常吃紧,需要不断加载和卸载……无法同时对比调用更谈不上提升效率。

更进阶的玩法是,将AMD锐龙AI Max+ 395迷你AI工作站视作本地大模型API中心,在局域网的其他设备上部署OpenClaw,然后远程接入使用AMD锐龙AI Max+ 395迷你AI工作站提供的本地大模型,这对初创团队、中小企业来讲是更符合实际的选择。

在费用层面,AMD锐龙AI Max+ 395平台的优势也很明显。就像OpenClaw创始人所说的MiniMax模型,可以用两台锐龙AI Max+ 395迷你AI工作站串联运行(有些带跳线支持一键启动组件集群),这相较于顶配的Mac Studio,两台锐龙AI Max+ 395设备的购买价格更低。

07

总结

总之,OpenClaw本身很有特色,功能强大,它代表着AI向前发展的下一个范式。如果你不打算花钱使用云端模型API,又或者你所在的企业、团队因为各种安全和合规原因希望在本地使用OpenClaw,那么完全可以尝试通过本地大模型来接入OpenClaw。而本地大模型部署方面,我们尤其推荐你使用锐龙AI Max+ 395平台,该平台真的性能强大,显存超模,可玩性高。

最后,希望本期的OpenClaw安装教程能够帮助大家体验到OpenClaw的魅力。无论你有没有技术基础,只要你想体验,立刻动手往往是最好的开始。当然,如果你正在使用Windows以外的平台,也可以参考本次教程来安装OpenClaw。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/274321.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月12日 下午3:40
下一篇 2026年3月12日 下午3:40


相关推荐

关注全栈程序员社区公众号