当AI助手不再是”租来的工具”,而是”养大的伙伴”。
龙虾不是产品,而是选择。
如果你用过各种AI客户端,一定有过这些焦虑:
- 用得好好的突然被封号
- 发现一个bug,反馈后石沉大海
- 某天醒来发现功能变了——厂商偷偷改了交互逻辑
这些焦虑的本质是:你不拥有它,你只是在租用它。
OpenClaw提供了一种不同的可能:你部署它,你拥有它,你塑造它。
但这意味着你需要付出代价——学习、配置、维护、踩坑。
这篇文章就是踩过坑后的复盘:龙虾能给你什么,值不值得。(踩坑部分篇幅较大,下一篇写)
开源不是情怀,是安全感。
龙虾有意思的一点是:它可以读自己的代码和文档以及运行记录。
当你对某个功能困惑时,可以直接问:
- “你的记忆机制具体是如何实现的?”
- “能否给每一个用户配置单独,运行环境隔离的Agent?”
- “定时任务为什么会超时,怎么排查?”
它会翻自己的源码、读文档、运行记录,然后解释给你听。
这就是Open的第一层意义:透明。 不是黑箱,不是”商业机密”,你想知道什么,自己去翻。
龙虾自带的记忆系统,我觉得不够用。于是我做了什么?
第一步:读代码
- 翻开源码,理解记忆系统的实现原理
- 发现它是简单的要求模型自己决定写记忆,然后md明文存储 + 混合检索
第二步:吸收社区方案
- 以openclaw-memory(https://github.com/geq1fan/openclaw-memory)为基础,把过度设计简化掉
- 参考 evolver 的”经验单元”设计(注:该项目本身可能存在风险,但开源让我们能取其精华)
- 参考 Letta 的三层存储架构
第三步:按自己需要设计、优化
- 定期记忆整理系统(memory-writer + memory-janitor)—— 亮点:定期提取、压缩、验证记忆、且与Codex CLI 共享提取调用机制。 (更多特性下文也有提到,完整实现后面看看能不能开源)
- 让龙虾自己查看运行会话内容,分析运行过程和结果是否符合预期,如不符合则继续想办法优化。
第四步:准备开源
- 整理代码和文档
- 计划发布到社区,让其他人也能用
这就是Open的完整闭环:有问题 → 读代码理解原理 → 不满足 → 自己设计改进 → 做好了 → 开源回馈社区。
如果是闭源产品,你只能停在第一步。
目前商业AI产品通常有的单次任务只能绑定单一供应商(Claude code、Codex);有的完整功能只能用自带模型,而且有各种牺牲用户体验的降本操作
龙虾完全不同。可以在一个系统里配置多组供应商、多种模型,比如我个人用下来比较舒服的设置:
| Agent | 任务特点 | 我用的模型 | 原因 |
|---|---|---|---|
| main | 日常对话、中文理解 | glm-5 | 听话、性价比高 |
| coder | 代码编写 | gpt-5.3-codex | 写代码靠谱 |
| researcher | 调研分析 | kimi-k2.5 | 中文检索能力强,且有多模态 |
| writer | 内容创作 | kimi-k2.5 | 文笔和创意不错 |
更妙的是:
- 国内模型便宜(次数包月),日常用不心疼
- 国外模型关键任务再调用
- 可以配置fallback:主模型失败自动切换备用模型
这种自由度,闭源产品给不了。
开源不只是”能看代码”,更重要的是你可以根据需求写插件,也可以去社区找找有没有已有的项目拿来即用。
真实案例:改进 Researcher Agent
龙虾自带的researcher功能比较简单,调研深度不够,证据来源也经常丢失。于是我:
第一步:找社区方案
- 发现openfang仓库的Researcher实现很完善
- 研究了它的任务分级、阶段化流水线、证据门槛设计
第二步:按需改造
- 引入light/deep模式:简单问题快速回答,复杂问题深度调研
- 设置证据门槛:关键事实必须2+独立来源,单来源要标记
- 统一置信度标签:Verified/Likely/Unverified/Disputed
- 强制保留来源:URL、日期、置信度一个都不能丢
第三步:封装成公共技能
- 创建
researcher-dispatch技能,统一处理网络委托 - 主Agent和所有用户专属Agent都能复用
- 实战验证后还修复了超时问题(deep任务600s起步)
结果:现在调研任务质量明显提升,证据链完整,来源可追溯。
这就是开源的灵活之处:看到好的方案→理解原理→按需改造→封装复用→持续迭代。闭源产品你只能等官方更新。
为什么龙虾能成为统一入口?
这不是一个简单的产品决策,而是技术上的必然结果:
Open → 可配置多模型 → 不用换产品
使用闭源项目或模型商官方项目,想体验不同的特性或模型就得换不同的产品。结果是对话散落各处。
龙虾允许自己改代码装插件,配置多种供应商、多种模型,你想用什么功能让ai给你写,哪个模型就用哪个,不用换产品,对话自然集中。
Open → 高度自定义上下文/工具 → 不同任务同一入口
你可以为不同Agent配置不同的:
- 模型(代码用codex,写作用kimi-k2.5)
- 工具权限(researcher能搜索,writer不能)
- 子代理权限(main能召唤所有帮手,writer只能叫kimi)
- 默认上下文(个性、用户偏好、知识、流程、交付规范)
可以让ai根据你个人的需求写插件,也可以去社区找找有没有已有的项目拿来即用。
Open → 接入IM工具,随时随地触达
龙虾支持接入多种IM工具(飞书、、Telegram、Discord等),这意味着:
- 不用打开新App:在常用的聊天软件里直接@龙虾
- 跨设备同步:手机、电脑、平板,哪里都能聊
- 降低使用门槛:不用记命令行,不用开浏览器,像聊天一样自然
我主要用飞书和:
- 飞书:工作场景,文档协作、任务跟进,可以接入飞书生态的能力
- :限制更少,使用更方便
所有任务走同一入口,但背后是高度定制的编排。
这就是”入口”的技术前提:没有Open的高度可配置,就没有真正统一的入口。
想要根据自己的需要给龙虾开发桌面端时,我没有独自战斗:
| Agent | 任务 | 模型 |
|---|---|---|
| coder | 前端 React + TailwindCSS | kimicode/kimi-k2.5 |
| codex | 后端 Rust + Tauri | openai/gpt-5.3-codex |
| researcher | 技术调研、文档查询 | kimicode/kimi-k2.5 |
他们通过sessions_send相互沟通接口细节,像真正的开发团队一样协作。
关键是:不管用了多少个Agent、换了多少个模型,所有对话都在龙虾里,形成完整的记忆链。
为什么统一入口是记忆的前提?
道理很简单:记忆来自数据,数据来自入口。
如果你的AI对话散落在ChatGPT、Claude、Kimi、飞书AI助手各处,每家平台都有你的部分数据,但没有一家有完整的数据。没有完整数据,就没有完整记忆。
龙虾作为统一入口,所有对话都经过它。不管哪个Agent、哪个模型,对话都在龙虾里。
有了完整数据,记忆系统才能工作。
完整逻辑链条:
Open(多模型可配置) ↓ 统一入口(不用换产品) ↓ 完整数据(所有对话集中) ↓ 记忆系统(数据驱动洞察)
这就是为什么龙虾能”越用越懂你”——不是它比别人聪明,是它有别人没有的完整数据。
龙虾的记忆系统不止被动存储,而可以根据自己的场景设置主动添加、维护逻辑,实现主动进化:
定时扫描
- memory-writer-multi:每2小时扫描会话,提取关键信息写入记忆
- memory-janitor-multi:每天4次维护MEMORY.md,清理过时信息,验证有效信息
结构化记忆
- 用户偏好(沟通风格、技术选择、工作习惯)
- 项目状态(进行中、已完成、待办事项)
- 重要决策(为什么这么做、什么时候改的)
- 知识积累(学到的新东西、踩过的坑)
翻开我的MEMORY.md,能看到龙虾记住的一切,例如:
沟通偏好
- 母语:中文
- 任务汇报:完成后需展示流程概要
自动化偏好
- 人工确认:重视确认环节,关键操作需确认后再执行
- 分析范围:只分析私聊(DM),不含群聊
技术偏好
- Git策略:本地优先且保留长历史
这些不是我在某个设置页面填的,而是龙虾从数月的对话中自动提取的。
记忆系统除了存储会话产生的信息,还有一个重要用途:让龙虾”学习”你想让它知道的东西。
你可以主动喂给它:
| 内容类型 | 例子 | 作用 |
|---|---|---|
| 好文章 | 技术博客、行业分析 | 扩展知识面,提升专业理解 |
| 视频内容 | 课程笔记、演讲要点 | 结构化知识输入 |
| 碎片灵感 | 突然想到的点子、待办事项 | 防止遗忘,后续可检索 |
比如看到一篇好的AI文章,我会把要点写入memory/knowledge/目录,龙虾会自动分块、向量化索引。下次问相关问题时,它能从这些文章中提取信息。
这就是”养成”的另一个维度:不是等它自己学,而是主动教它你想让它知道的东西。
很多人担心AI”太聪明”会失控。龙虾的设计理念是:
先让它足够了解你,再让它自主行动。
这不是一句空话:
- 你可以随时查看记忆文件(MEMORY.md),知道它记住了什么
- 你可以手动编辑记忆,纠正错误认知
- 你可以配置权限,限制它能做什么
等它真的理解你的工作、习惯、价值观之后,openclaw 龙虾你再逐步放权:
- 定时帮你做日常任务
- 主动发现你忽略的问题
- 在你不在的时候持续运转
“当然,这种’养成’是有代价的。龙虾不适合所有人——它需要学习、配置、维护,甚至会犯错。我花了6亿token深入研究它,踩过不少坑。下一篇文章我会详细聊聊这些’坑’,以及怎么解决。”
想法和工具都很便宜,真正难的是发现问题。
痛苦不是”有一个问题待解决”。比如:
- 需要方案 → 把具体场景描述清楚,让AI生成方案,然后分析、测试、提要求改进就有了
- 我需要一个网页/程序 → 让Claude/Codex解君愁
这种痛苦是”显性的”,解决方案是明确的。
但还有一种更隐蔽的痛苦:觉得不对劲,但不知道问题在哪。
比如:
- 工作效率好像不高,但不知道卡在哪
- 感觉时间都浪费了,但说不清浪费在哪
- 和AI聊了很多,但不知道聊了什么、有什么用
- 跟风开了各种AI工具帐号/折腾了Agent项目部署,但不知道要干嘛
这种痛苦是”隐性的”,你甚至不知道该问什么问题。
龙虾的”入口”意义,不只是”方便”,而是数据积累。
当所有对话都经过一个入口:
- 你问了什么问题
- 你关心什么话题
- 你在哪些领域反复遇到困难
- 你的工作流有哪些重复模式
这些数据本身就是一个金矿。
记忆整理机制就是这个思想的简单应用:
对话数据 → 定期扫描 → 结构化提取 → 发现模式
比如,通过分析我的对话记录,龙虾发现:
- 我经常在晚上讨论技术问题 → 可能需要更好的晚间工作环境
- 我反复提到”多会话并行” → 这是核心痛点,值得投入
- 我对某个模型的输出质量多次抱怨 → 可能需要换模型或调整prompt
这些洞察不是我问出来的,是数据自己告诉我的。
传统AI工具是问题驱动的:
- 你发现问题
- 你描述问题
- AI帮你解决
龙虾的长期价值是发现驱动的:
- 你正常使用
- 数据积累
- 分析发现模式
- 你意识到原来这是痛点
- 针对性解决
这就是”养成”的深层意义:不是等AI变聪明,而是让你通过数据更了解自己。
说了这么多技术分析,龙虾对我来说是什么?
一个可以一起成长的伙伴,而不是一个工具。
它不完美,它会犯错,它Token消耗大,它上下文管理粗放。
但它也有独特的价值:它让你拥有选择权。
你可以选择读代码理解它,也可以让它解释自己。
你可以选择精简配置省Token,也可以让它烧。
你可以选择隔离环境保安全,也可以让它跑在主力机上。
你可以选择主动”喂”它知识,也可以让它自己从对话里学。
你可以选择今天开始”养育”它,也可以再观望一阵。
龙虾不是一个产品,而是一种选择——选择掌控而不是被掌控,选择自己动手而不是等别人修,选择接受复杂而不是忍受封闭。
当你决定开始时,请记住:它不完美,但它是你的。
写完这篇文章,有几个想法在排队:
0. 写公众号文章“烧掉6亿token终于搞懂龙虾,这份避坑指南请收好”
本来是放在这篇文章里的,但写着写着觉得有必要单独开一篇来写,坑太多,探索出来的避坑方案内容也不少。
1. 写公众号文章”以龙虾为中枢:工作即上下文搜集,以AI化倒逼团队数字化”
这篇文章聚焦个人用户。但龙虾的多Agent架构天然适合团队协作——每个成员有专属Agent,工作流程本身就是上下文,协作过程自动沉淀为知识。这个方向值得单独写一篇。
2. 记忆自动整理实现、AI研究员实现
- 记忆自动整理:目前是定时扫描、验证、压缩,感觉还不错,需要再用一段时间观察下
- AI研究员:基于Researcher Agent封装,支持深度调研、自动报告生成
3. 探索更高水平的自动化
给龙虾定长期目标 + 规则 + 独立环境,让它:
- 团队协作(多个Agent分工)
- 收集信息(主动搜索、订阅、监控)
- 学习(从任务中提取经验)
- 找任务并完成(发现痛点、主动解决)
- 反思提升(分析失败案例、优化流程)
这是”养成”的下一阶段——不是等用户派活,而是自己找活干。
本文主要内容由龙虾根据记忆进行整理编写,本人主要负责把碎片化的想法整理成框架以及微调亿点点。
发布者:Ai探索者,转载请注明出处:https://javaforall.net/257934.html原文链接:https://javaforall.net
