0 Token 成本,24 小时运行,离线也能干活。
大家好,我是小虎。
这不是梦,是本地部署 OpenClaw 的真实写照。🦞
最近”养龙虾”火出圈了——GitHub 25 万星标、腾讯门口排队几百人、有人靠上门安装几天赚 26 万……
互联网就是这么神奇,我都不能理解这个 26 万靠上门安装也能赚到的
我的学员群里,也有同学已经安装了好几只龙虾了。
但很多人不知道:你完全可以一分钱不花,自己在家搞定。
今天这篇教程,就是要让你 30 分钟内,从零完成 OpenClaw 本地部署。🚀
OpenClaw(龙虾)是个 AI Agent 框架,能帮你:
- 自动处理文件、整理数据
- 监控服务器、自动报警
- 自动回复消息、处理邮件
- 执行各种重复性任务
问题来了:它需要调用大模型来”思考”,而云端模型是按 Token 收费的。
养虾一天,烧掉几十几百块 Token 费,这是很多人的真实遭遇。
但本地部署之后?Token 成本直接归零。
一台电脑,就这些。
具体要求:
- 系统:Windows 10/11 或 macOS 10.15+
- 内存:至少 8GB(16GB 更舒服)
- 显卡:有更好,没有也能跑
- 硬盘:预留 10GB 空间
不需要编程基础,不需要懂 Docker,跟着做就行。
下面一步步来。
Ollama 是本地运行大模型的工具,相当于给你的电脑装了个”AI 大脑”。
Windows 用户
打开浏览器,访问:
点击”Download for Windows”,下载安装包。
双击运行,一路”下一步”即可。
安装完成后,打开命令提示符(按 Win+R,输入 cmd,回车)。
输入以下命令验证安装:
看到版本号,说明安装成功。✅
Mac 用户
同样访问 ollama.com,下载 Mac 版本。
双击安装包,把 Ollama 拖进 Applications 文件夹。
打开终端(Terminal),输入:
看到版本号就 OK。
Ollama 装好了,现在要给它装个”脑子”——本地大模型。
推荐两个更稳妥的本地模型选择(以 Ollama 官方可用 tag 为准):
模型
参考大小
特点
qwen2.5
~4.7GB
中文理解强,综合能力好
glm4
~5.5GB
智谱系轻量模型,适合本地部署
如果你的机器配置更高,可以再升级到 glm-4.7-flash:q4_K_M(约 19GB)。
我建议新手先用 qwen2.5 或 glm4。
在命令行输入(任选其一):
等待下载完成(qwen2.5 约 4.7GB,glm4 约 5.5GB)。
下载完成后,测试一下(与你拉取的模型保持一致):
你会看到模型开始和你对话。随便聊两句,确认它能正常工作。
输入 /bye 退出对话模式。
OpenClaw 的安装方式有好几种,这里说最简单的。
方法一:官方安装包(推荐)
访问 OpenClaw 的 GitHub 页面:
在 Releases 页面找到最新版本,下载对应系统的安装包:
- Windows: OpenClaw-Setup-x.x.x.exe
- Mac: OpenClaw-x.x.x.dmg
双击安装,一路下一步。
方法二:用官方安装脚本(更稳妥)
OpenClaw 官方文档优先推荐安装脚本,命令如下:
Windows( PowerShell) :
macOS / Linux:
安装完成后,先执行:
看到健康检查和状态正常,再继续下一步配置。
这是很多人卡住的地方。
打开 OpenClaw 的设置页,找到”模型配置”或”Model Settings”。
你需要填写以下信息:
注意:
- localhost 就是”本机”的意思
- 11434 是 Ollama 的默认端口
- 如果你拉取的是其他模型,把 qwen2.5 换成对应名字
保存设置。
⚠️ 这一步做完,必须重启 OpenClaw!
重启 OpenClaw 后,在聊天框输入一个简单任务:
帮我列出当前目录下的所有文件
如果任务能正常返回结果,先说明 OpenClaw 可以工作。
再确认是不是本地模型在执行:
在任务执行时,打开命令行输入:
如果能看到你刚配置的模型(如 qwen2.5 或 glm4)处于运行状态,说明本地模型已被调用。
注意:只有在全程走本地模型、没有调用任何云端 API 时,云端 Token 才是 0。
本地模型免费,但能力有上限。
复杂任务(比如写代码、深度分析),云端模型效果更好。
最佳实践:混合使用。
在 OpenClaw 里配置多个模型:
- claude-4.6:复杂推理、写代码(需要 API Key)
- qwen2.5:日常任务、简单操作(本地免费)
具体是手动选模型还是自动路由,取决于你当前版本与配置;不确定时,建议显式指定模型。
这样既保证了效果,又把成本压到最低。
Q1:本地模型效果差怎么办?
A:可以尝试更大的模型,比如 qwen2.5:14b。对硬件要求更高,但效果更好。或者用混合架构,复杂任务走云端。
Q2:运行很慢/卡顿?
A:检查内存占用。8GB 内存可能紧张,建议关掉其他大软件。有条件的话升级到 16GB。
Q3:断网能用吗?
A:在不依赖云端 API、相关依赖已本地就绪的前提下,可以离线运行。这是它最大的优势之一。
Q4:模型存在哪里?
A:
- Windows:C:Users你的用户名.ollamamodels
- Mac: ~/.ollama/models
Q5:如何切换模型?
A:命令行输入 ollama list 查看已安装模型,然后修改 OpenClaw 配置即可。
😅 我踩过的坑,你们别再踩:
- 1.配置完不重启——改了配置一定要重启 OpenClaw,不然白改。
- 2.模型名字写错——qwen2.5 不是 Qwen2.5,大小写要精确。模型 tag 以 ollama list 显示结果为准,建议直接复制粘贴,避免拼写或后缀写错(如 :14b、:q4_K_M)。
- 3.端口冲突——如果 11434 端口被占用,Ollama 通常会直接报错,需要你手动释放端口或调整服务配置。可先用 ollama ps 确认服务状态。
- 4.硬盘空间不足——模型动辄几个 GB,下载前先检查剩余空间。
OpenClaw 的爆火,标志着 AI 从”聊天玩具”进化为”生产力工具”。
而本地部署,让这个工具从”烧钱机器”变成”免费助手”。
门槛已经降到地板,剩下的就看你自己了。
有任何问题,欢迎评论区留言,小虎看到都会回复~💬
发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/255785.html原文链接:https://javaforall.net
