最近比较热闹,上一周花500块钱安装,这一周花200块钱卸载。OpenClaw本来就不是给不具备一定编程基础的人用的,要是想让大家都能很顺畅地用,何必用Node.js、Docker安装,打包成exe或bin一键安装多便利?大模型API、Skill、Token,Agent,这一大堆概念,哪像Chat那么简单。
这玩意只是在国内火,好像国外波澜不惊,在HackerNews上近一周几乎没看到一条与OpenClaw有关的新闻,但也不是完全没有,有一条MacBook Neo上了热搜,哈哈。Anthropic的ClaudeDesktop、ClaudeCode,都非常惊艳,但也都是局限于编程领域,OpenClaw也不例外。大模型发展这几年,也就Chat这一种模型走进了大众生活。
OpenClaw的价值显而易见,代码在持续更新,写本文时,看到29秒前还有提交。在使用上,用户一个宏观的任务指令,剩下的事就不用操心了,最后得到一个高于自己预期的结果,何乐而不为呢?有人说OpenClaw还不成熟,那也不是,搭载Claude模型、配置合适的权限、给定一定的基础数据、下载靠谱的Skill,提升的工作效率不是一点点,但为什么热潮过后,大家也就失去了兴趣了呢?有几个原因。
一、价格
据说OpenClaw的系统指令就1万个Token,你说一句“你好”,1万零2个Token的钱就给了Anthropic或其他LLM厂家了,你可能觉得就第一次下达任务费钱,那还不是,像OpenClaw这种主动服务的Agent,不大可能一轮对话完成任务,需要多轮会话,那需要多少轮?那就不好说了,设定得轮数上限太低,解决不了问题,设定得太高,费钱。
二、安全
给个裸机,什么权限也不给,OpenClaw的功能等同于线上的Chat,而且更费钱,给的权限太多,又不安全,还不排除一些恶意Skill。另外,把社交媒体账户交给OpenClaw,这感觉上就不安全。
三、费用
那这么多问题,OpenClaw还能用起来吗?或者说如何用呢?答案是本地部署。OpenClaw不就是本地安装的吗?不全是,模型在外,花钱的东西在外面。
如果把模型部署到本地是不是又省钱、又安全?就是的,但本地部署要买算力,有的博主教大家用Ollama装模型,花不了几毛钱,但一分钱一分货,那样用只能是个玩具,没有实用性,精度太低,不小心推理出来个“rm -fr /”更可怕。
所以回到主题,花多少钱买多少算力够用?一般来说,至少得32B以上的模型才可以,参数量太低,生成效果肯定是不好。那就选32B的模型,我们算一下:32B的FP16精度模型需要64G显存,用vLLM等工具部署差不多得96G,这样48G的显卡就得两块,24G显卡就得4块,显卡的钱加上机器的钱,大概就是10万左右。有的32B模型还有FP8精度的,那样一块48G卡就够了。
openclaw docker 教程
10万也不是个小数字,但话说回来,这种配置方案本来就不是给个人用的,而是给企业用的,如果是个人用,实际上安全的问题也并不那么重要,用在线模型就可以了。
前面不是说这样用Token贵吗?问题是贵的事其实解决不了,本地装显卡跑模型也要耗电,也不便宜。
发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/284355.html原文链接:https://javaforall.net
