广东佛山市禅城区、广东深圳市龙岗区、江苏苏州/常熟/无锡高新区、安徽合肥高新区、浙江杭州萧山区、上海市…多地推出面向公众的小龙虾”(OpenClaw)免费部署服务。“养龙虾”、“龙虾?条”、“龙虾大会”、“龙虾盒子”、“龙虾服务区”等提法近期屡见诸于报端。
腾讯云WorkBuddy宣布完全兼容OpenClaw技能,官方接入OpenClaw机器人,企业微信开放OpenClaw智能机器人接入,腾讯电脑管家推出Qclaw,字节跳动旗下火山引擎推出ArkClaw,阿里云通义实验室推出CoPaw,小米也开启MiClaw封测…国内大厂纷纷下场开始布局OpenClaw。
OpenClaw引领的AI Agent时代,对算力的消耗是以指数级别增长的,循环调用大模型API,反复读取、计算、生成,Token的消耗直接飙升千倍以上,对算力的需求更是跃层式的大跃升。

OpenClaw之所以如此火热,从其创始人Peter Steinberger对OpenClaw的定位可见一斑,本地化部署+灵活性是其核心特征,去中心化、使用用户习惯的工具进行交互、储存在自己的设备上不会被其他平台收集和分析、个人数据安全得到最大化保障等等特点都非常讨人喜欢。
在硬件层面,OpenClaw本地化部署根据不同使用人群可区分为两类:面向对数据合规和部署便捷性有极高要求的政务、金融、机构客户推出专用一体机、面向开发者、技术专业人士、有特殊需求的个人用户推出的高性能通用PC。
构成OpenClaw的成本方面,真正的开销在于你为它选择什么样的栖息地,也就是上面说的硬件以及给他投喂的食物,即需要API调用数据。普通人可以免费下载、修改和托管其核心代码,简单使用无需支付任何费用。但要“升阶”就得算笔养一只赛博龙虾的细账了。

栖息地选择:选择云端部署而非自购设备,即租房住。满足基础配置的入门级成本(如2核CPU、2GB内存等),普遍优惠后的价格约为30-60元/月。如果需要处理高并发或复杂任务需要升级更高配置(如4核CPU、8GB内存等)费用增加至50-200元/月。如果选择本地部署,自购专属于运行OpenClaw的设备,即买房,成本没有上限,起码5000元起步。
API调用费:模型API调用费(最核心的“饲料”钱)。OpenClaw在执行任务时会进行大量的任务拆解、规划和推理,Token消耗量是普通聊天机器人的数倍甚至上百倍。有开发者实测,执行复杂任务一天就能烧掉10亿个Token,成本高达数万元。于是,“Token黑洞”(无底洞)产生。
具报道真实案例中,一位开发者使用OpenClaw处理自动化任务,2小时就消耗了价值100美元的Token费用。一位大数据工程师仅用OpenClaw闲聊和查数据,一夜之间消耗了100万Token,直接导致自己破产。更有用户实测,云端部署后仅执行了3个任务,就消耗了约200元。

此外,软件授权费用、电费及运维成本、安全防护成本等隐性成本都无法确定具体的数字,这要根据使用者的需求、使用频率等进行综合评价。总之,养只赛博龙虾,很费钱,很费算力!
在这场万亿级算力革命中,A股最大的机会存在于CPO和光通信板块,这是算力需求爆发的最核心受益方向。逻辑就一个,算力要爆发式增长,光互联就必须升级,光互联要升级,CPO和光通信是必要条件。
CPO即指共封装光学,是将光通信元件和电交换芯片封装在一起的技术。CPO是AI算力时代的高速数据通道。打个比方,传统的可插拔光模块就像墙上的标准电源插座,虽然灵活通用,但电器和电源之间有距离,电流传输会有损耗。CPO技术就相当于把充电芯片直接集成到电器的主板上,消除了中间损耗,实现极致性能和效率。

CPO工作的核心逻辑是实现”电短光长”的高效互连。通过先进的封装技术,将光引擎和交换芯片封装在一起,让高速电信号仅在芯片间的毫米级距离内传输,极大地减少了信号衰减和功耗,从而实现电信号”短跑”。关键的信号交换和长距离传输,则交给损耗更低、带宽更大的光纤来完成,光信号”长跑”。
CPO现在这么火的原因主要是由AI驱动的。随着AI模型越做越大,数据中心内部的数据传输面临着巨大挑战,而传统的方案有些”力不从心”了:
数据在芯片和模块间的长距离传输会消耗大量电能。有数据显示,CPO技术可以降低至少40%的功耗,英伟达的方案甚至宣称能效改善达3.5倍。交换机面板空间有限,传统光模块的数量和带宽都快到极限了。为了弥补高速传输的损耗,需要使用大量昂贵的元器件,成本越来越高。正因如此,普遍认为,在400G速率以上的应用场景,CPO将成为”唯一选项”。
openclaw 部署
目前CPO已经从概念走向现实,产业化的进程正在全面加速。英伟达在2026年3月宣布,向光通信巨头Lumentum和Coherent各投资20亿美元,并签下巨额采购承诺,以锁定未来CPO的产能。这被看作是对CPO技术路线的最终确认。
根据研究,全球CPO市场规模预计将从2024年的约4600万美元,快速增长到2031年的9.47亿美元。另一家机构Yole更是预测,到2030年市场规模有望达到80亿美元。目前的CPO主要应用于服务器之间的互联。为了解决芯片散热对光源的影响,”外置激光源(ELS)”方案成为主流,即把对温度敏感的激光器放在外部,只把硅光调制器与芯片封装在一起。
当然,CPO技术目前仍处于大规模商用的前夕,还面临着一些工程和成本上的挑战。预计从2026年到2027年开始,我们会看到它在高端AI数据中心里得到越来越广泛的应用。CPO是AI算力发展到一定阶段后的必然选择,它解决了传统架构的”功耗墙”和”带宽墙”问题。
下篇文章我们将重点解构CPO各环节、关键材料,并挖掘出A股重点的上市公司,敬请关注。
发布者:Ai探索者,转载请注明出处:https://javaforall.net/272545.html原文链接:https://javaforall.net
