手把手教你零成本养虾:OpenClaw 本地部署完整教程

手把手教你零成本养虾:OpenClaw 本地部署完整教程

0 Token 成本,24 小时运行,离线也能干活。

大家好,我是小虎。

这不是梦,是本地部署 OpenClaw 的真实写照。🦞

最近”养龙虾”火出圈了——GitHub 25 万星标、腾讯门口排队几百人、有人靠上门安装几天赚 26 万……

互联网就是这么神奇,我都不能理解这个 26 万靠上门安装也能赚到的

我的学员群里,也有同学已经安装了好几只龙虾了。

但很多人不知道:你完全可以一分钱不花,自己在家搞定。

今天这篇教程,就是要让你 30 分钟内,从零完成 OpenClaw 本地部署。🚀

OpenClaw(龙虾)是个 AI Agent 框架,能帮你:

  • 自动处理文件、整理数据
  • 监控服务器、自动报警
  • 自动回复消息、处理邮件
  • 执行各种重复性任务

问题来了:它需要调用大模型来”思考”,而云端模型是按 Token 收费的。

养虾一天,烧掉几十几百块 Token 费,这是很多人的真实遭遇。

但本地部署之后?Token 成本直接归零。

一台电脑,就这些。

具体要求:

  • 系统:Windows 10/11 或 macOS 10.15+
  • 内存:至少 8GB(16GB 更舒服)
  • 显卡:有更好,没有也能跑
  • 硬盘:预留 10GB 空间

不需要编程基础,不需要懂 Docker,跟着做就行。

 

下面一步步来。

Ollama 是本地运行大模型的工具,相当于给你的电脑装了个”AI 大脑”。

Windows 用户

打开浏览器,访问:

 

点击”Download for Windows”,下载安装包。

双击运行,一路”下一步”即可。

安装完成后,打开命令提示符(按 Win+R,输入 cmd,回车)。

输入以下命令验证安装:

 

看到版本号,说明安装成功。✅

Mac 用户

同样访问 ollama.com,下载 Mac 版本。

双击安装包,把 Ollama 拖进 Applications 文件夹。

打开终端(Terminal),输入:

 

看到版本号就 OK。

Ollama 装好了,现在要给它装个”脑子”——本地大模型。

推荐两个更稳妥的本地模型选择(以 Ollama 官方可用 tag 为准):

openclaw 龙虾

模型

参考大小

特点

qwen2.5

~4.7GB

中文理解强,综合能力好

glm4

~5.5GB

智谱系轻量模型,适合本地部署

如果你的机器配置更高,可以再升级到 glm-4.7-flash:q4_K_M(约 19GB)。

我建议新手先用 qwen2.5 或 glm4。

在命令行输入(任选其一):

 

等待下载完成(qwen2.5 约 4.7GB,glm4 约 5.5GB)。

下载完成后,测试一下(与你拉取的模型保持一致):

 

你会看到模型开始和你对话。随便聊两句,确认它能正常工作。

输入 /bye 退出对话模式。

OpenClaw 的安装方式有好几种,这里说最简单的。

方法一:官方安装包(推荐)

访问 OpenClaw 的 GitHub 页面:

 

在 Releases 页面找到最新版本,下载对应系统的安装包:

  • Windows: OpenClaw-Setup-x.x.x.exe
  • Mac: OpenClaw-x.x.x.dmg

双击安装,一路下一步。

方法二:用官方安装脚本(更稳妥)

OpenClaw 官方文档优先推荐安装脚本,命令如下:

Windows( PowerShell) : 

 

macOS / Linux: 

 

安装完成后,先执行:

 

看到健康检查和状态正常,再继续下一步配置。

这是很多人卡住的地方。

打开 OpenClaw 的设置页,找到”模型配置”或”Model Settings”。

你需要填写以下信息:

 

注意:

  • localhost 就是”本机”的意思
  • 11434 是 Ollama 的默认端口
  • 如果你拉取的是其他模型,把 qwen2.5 换成对应名字

保存设置。

⚠️ 这一步做完,必须重启 OpenClaw!

重启 OpenClaw 后,在聊天框输入一个简单任务:

帮我列出当前目录下的所有文件

如果任务能正常返回结果,先说明 OpenClaw 可以工作。

再确认是不是本地模型在执行:

在任务执行时,打开命令行输入:

 

如果能看到你刚配置的模型(如 qwen2.5 或 glm4)处于运行状态,说明本地模型已被调用。

注意:只有在全程走本地模型、没有调用任何云端 API 时,云端 Token 才是 0。

本地模型免费,但能力有上限。

复杂任务(比如写代码、深度分析),云端模型效果更好。

最佳实践:混合使用。

在 OpenClaw 里配置多个模型:

  • claude-4.6:复杂推理、写代码(需要 API Key)
  • qwen2.5:日常任务、简单操作(本地免费)

具体是手动选模型还是自动路由,取决于你当前版本与配置;不确定时,建议显式指定模型。

这样既保证了效果,又把成本压到最低。

Q1:本地模型效果差怎么办?

A:可以尝试更大的模型,比如 qwen2.5:14b。对硬件要求更高,但效果更好。或者用混合架构,复杂任务走云端。

Q2:运行很慢/卡顿?

A:检查内存占用。8GB 内存可能紧张,建议关掉其他大软件。有条件的话升级到 16GB。

Q3:断网能用吗?

A:在不依赖云端 API、相关依赖已本地就绪的前提下,可以离线运行。这是它最大的优势之一。

Q4:模型存在哪里?

A: 

  • Windows:C:Users你的用户名.ollamamodels
  • Mac: ~/.ollama/models

Q5:如何切换模型?

A:命令行输入 ollama list 查看已安装模型,然后修改 OpenClaw 配置即可。

😅 我踩过的坑,你们别再踩:

  1. 1.配置完不重启——改了配置一定要重启 OpenClaw,不然白改。
  2. 2.模型名字写错——qwen2.5 不是 Qwen2.5,大小写要精确。模型 tag 以 ollama list 显示结果为准,建议直接复制粘贴,避免拼写或后缀写错(如 :14b、:q4_K_M)。
  3. 3.端口冲突——如果 11434 端口被占用,Ollama 通常会直接报错,需要你手动释放端口或调整服务配置。可先用 ollama ps 确认服务状态。
  4. 4.硬盘空间不足——模型动辄几个 GB,下载前先检查剩余空间。
 

OpenClaw 的爆火,标志着 AI 从”聊天玩具”进化为”生产力工具”。

而本地部署,让这个工具从”烧钱机器”变成”免费助手”。

门槛已经降到地板,剩下的就看你自己了。

有任何问题,欢迎评论区留言,小虎看到都会回复~💬

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/255785.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月13日 上午11:48
下一篇 2026年3月13日 上午11:48


相关推荐

关注全栈程序员社区公众号