
2025 年,Anthropic 把这种直觉正式产品化:Agent Skills——一个以「文件夹」为基本单位的技能系统,并公开喊话:“不要再到处造新的 Agent,而是给一个通用 Agent 装上可组合的 Skills。”

接下来我们就从工程视角拆开该新范式:它到底应对了什么挑战,具体怎么工作,和 MCP / 软件调用 / RAG 有什么不同,开发者在实践中该如何落地。
从开发体验看,今天主流的 Agent 搭建方式大致有三类路线:
- Prompt 工程 + 一些工具调用
通过长 System Prompt + 指令模板,把模型「调教」成一个 Agent,再给它挂上若干工具(搜索、数据库、脚本执行等)。 - 工作流编排 / Orchestration
例如用各种 Agent 框架,把麻烦任务拆成多节点、多 Agent 的有向图,节点间传递中间结果。 - 针对场景微调 / RAG
用特定领域材料做检索增强,或者定制微调,使 Agent 在某个垂直领域更专业。
这些方案看似不同,本质却有共性的问题:
- 知识与流程都「糊」在 Prompt / 代码里,难以复用与版本管理。
一个好用的 Agent,往往是 Prompt、工具选择、调用策略和业务约束的混合体,很难拆成独立、可移植的组件。 - 上下文是一次性、易遗忘的。
模型再「聪明」,没有结构化的程序性记忆,依然像一个刚入职、啥都得现问的实习生:每次任务都要重新讲一遍 SOP。 - 缺乏统一抽象,生态难以形成。
不同团队、不同框架的 Agent 互不兼容,很难像 App 一样被分享、组合和「安装」。
Anthropic 的判断是:继续堆更复杂的 Agent 结构,很难治本;真正缺的是一种能被模型理解、被工程体系管理、又能跨项目复用的「技能载体」。

Anthropic 给出的定义高度务实:
一个 Skill,本质上就是一个文件夹(目录),里面装着让 Agent 完成某类任务所需的所有「操作说明 + 工具脚本 + 资源」。
典型的 Skill 目录结构大致如下:
其中:
- 是大脑入口:
里面以结构化 Markdown 写明技能的用途、适用场景、关键步骤、输入输出格式、注意事项等,同时含有模型用来检索与触发该技能的元数据(name、description、tags 等)。 - 提供「可执行动作」:
比如 PDF 解析、Excel 操作、批量重命名、调用内部 API 的封装脚本等。模型不需要记住细节,只要知道「调用哪个脚本完成这一步」。 - 其他资源作为补充记忆:
模板、规约、案例,用来保证输出风格与公司标准一致。
换句话说:Skill 是一种“人类可读 + 机器可执行”的工作说明书,既不是纯 Prompt,也不是黑箱 API,而是介于两者之间的一种「程序化知识包」。
如果把大量业务流程都写进 Skill,显然会遇到一个经典障碍:上下文爆炸。
Anthropic 的解决方案是「分层加载」——渐进式披露:
可以粗略理解为三个层次:
- Level 1:元内容常驻(Metadata)
- 每个 Skill 的名称、简短描述、标签会被放进 Agent 的架构提示或一个轻量索引中。
- Agent 在接到任务时,先在这层做「哪几个技能可能相关?」的敏捷筛选。
- Level 2:说明按需加载(Instructions)
- 当 Agent 判断某个 Skill 适配当前任务,就通过类似 / 文件访问接口读取对应的 具体内容。
- 此时,详细步骤、边界条件、格式要求才被带入上下文。
- Level 3:资源与脚本再按需调用(Resources & Code)
- 若说明里引用了脚本或资源,Agent 会在需要时再去执行脚本或读取文件,而不是一次性塞进上下文。
- 代码在模型外执行,结果以结构化输出回传,更稳定也更省 Token。
此种设计有两个直接好处:
- 上下文成本可控、可扩展:
可以挂很多 Skill,但大部分时间只占用极少上下文空间。 - 通过技能能够变得很「长」,而不会拖垮性能:
麻烦流程也可以详细写清楚,反而提高执行稳定性和可解释性。
从工程视角看,这更像是把「Prompt 工程」拆成了一个个可独立存储、按需加载的文件,而不是永远堆在环境提示里。
许可用一张表来粗对比:
关键区别在于:
- 工具调用偏「能做什么」;Skill 更强调「应该怎么做」。
Skill 把调用哪些工具、按照什么顺序调用、怎样判断成功、如何兜底等都写清楚。 - RAG 克服「知道什么」,Skill 解决「怎么干」。
一个财务分析 Skill 许可用 RAG 查政策和历史报表,但流程和输出格式由 Skill 固定。 - MCP / 插件是「通向外部世界的门」,Skill 则像「操作手册 + 自动操作者」。
两者可以组合:Skill 里定义如何调用 MCP,什么时候调用,输入输出如何转换。
从开发者视角,这意味着:把大量「如何搞定某类任务」迁移到可版本化的 Skill 目录中。就是你不需要在 Agent 代码里把所有细节写死,而
它在就是如果只把 Skills 看成「高级 Prompt 模板」,就低估了它的工程意义。更有价值的,知识工程与组织资产管理上的作用。
对个人开发者和独立工程师来说,Skills 提供了一种组织个人经验的方式:
- 把自己在「代码重构」「写技术 RFC」「评审 PR」「写测试用例」上的套路,拆成一个个 Skill。
- 日常只要告诉 Agent「按 X Skill 帮我处理该 PR」,而不是一次次解释个人偏好和边界条件。
长远看,这相当于为自己搭了一层「可执行的工作习惯」,而不是一堆散落在各处的 Prompt 片段。
在企业场景,更有杀伤力的是把传统意义上的 SOP / 手册 / Wiki,系统性地转成 Skills:
- 合规审批流程 Skill
包含合规检查要点、必填字段、风险项列表、升级路径与拒绝模板。 - 内部数据分析 Skill
封装数据源连接、指标定义、常用 SQL 模板与可视化配置。 - 品牌内容审核 Skill
根据品牌手册、禁用词、审查标准进行自动审核和修订建议。
这样做有几个收益:
- 新人或非手艺员工可能「直接用」,而不是「先看 30 页文档再来问」。
- 知识更新可以在 Skill 层做完,一次修改,全体 Agent 生效。
- 知识资产可以跨团队、跨项目流通,形成真正的「组织级复用」。
在这个视角下,Skill 更接近「组织记忆的代码化形式」。
Anthropic 在官方文档和 GitHub 仓库里给出了多个示例与最佳实践,可以抽象出一套通用方法论。
好 Skill 的起点是「一个定义清晰、边界明确、日常高频」的任务,而不是一句模糊的「帮我做增长分析」。例如:
- 「根据 Jira 任务,生成本周迭代汇总邮件」
- 「把一堆发票 PDF 整理成标准报销表 Excel」
- 「按公司文案规范重写产品更新日志」
让 Skill 去覆盖一个可度量的、可验证的输出,有助于迭代。
观察一个熟练员工怎么做这件事,然后抽象成步骤:
- 输入与前置条件检查
- 信息收集 / 检索
- 处理与决策逻辑
- 结果生成与格式化
- 质量检查与错误处理
把这些写进 ,并用清晰标题、列表、示例和「Do / Don’t」形式呈现,模型更容易遵循。
不是所有事情都该在模型里「硬算」。典型适合放进 的包括:
- 解析与生成艰难文件格式(Excel、PDF、PPT、二进制日志)。
- 重复性强的结构化转换(数据清洗、字段映射)。
- 调用内部 API、执行 Shell 命令等需要确定性与安全控制的操作。
在 里,只需要写清「在第 N 步调用 xxx 脚本,输入格式为 X,输出格式为 Y」,以及如何根据脚本输出判断下一步。
Skill 得自带「什么叫做好结果」的定义,可以囊括:
- 正例 / 反例片段(注意避免敏感数据)。
- 打分准则:例如合规性、完整性、风格一致性等。
- 常见错误与对应修正策略。
这不仅帮助模型,更方便人类回顾和迭代 Skill 本身。
由于 Skill 可以挂脚本、读写文件甚至访问网络,它在安全和合规上的地位,更接近一个软件包,而不是一段无害的 Prompt。
几个必须重视的点:
- 来源可信与代码审计:
和安装第三方包一样,Skill 仓库也有供应链风险。需要有白名单、签名或内部审核流程。 - 最小权限原则:
Skill 内脚本应只访问做完任务必需的资源,避免一把钥匙开全公司门的局面。 - 执行与日志:
对脚本执行进行日志记录,便于溯源与事后审计。 - 敏感数据脱敏与隔离环境:
在得处理敏感数据的 Skill 中采用沙箱、脱敏或专用环境,避免无意扩散。
总结起来:把 Skill 当软件工程,而不是当 Prompt 玩具。
目前大部分 Skill 仍由人类设计和维护,但 Anthropic 在演讲和文章中都明确提到:希望未来的 Agent 能够主动总结自己的成功经验,抽象成新的 Skill。
可能的演进方向包括:
- Agent 在重复完成某类任务后,自动归纳出一套稳定流程,并生成草稿版 。
- 人类只需做结果的审核与微调,而不必从零撰写。
- 多个 Agent 之间允许共享 Skills,形成类似「技能市场 / 技能 App Store」。
如果你已经在生产环境使用 LLM / Agent,这里有几条非常务实的建议,可作为迁移到 Skill 范式的起点:
- 先选一个痛点明显的高频任务,做一个 POC Skill,而不是一口气重构所有 Agent。
- 把现有长 System Prompt 和散落的 SOP、工具说明整理进 Skill 目录,逐步「解耦」逻辑与 Agent 代码Agent 智能体。
- 为团队设定容易的 Skill 规范:命名、目录结构、文档模板、评估手段。
- 在安全上,把 Skill 当「内部软件包」看待,建立代码审查和权限控制。
从长远看,「一个强大的通用 Agent + 一个不断增长的 Skill 仓库」,比无数孤立、不可维护的垂直 Agent 更有机会成为企业的长期基础设施。
- Equipping Agents for the Real World with Agent Skills
https://www.anthropic.com/engineering/equipping-agents-for-the-real-world-with-agent-skills - Anthropic Agent Skills 官方 GitHub
https://github.com/anthropics/skills - Tracing Thoughts in Language Models
https://www.anthropic.com/research/tracing-thoughts-language-model - Disrupting AI Espionage
https://www.anthropic.com/news/disrupting-AI-espionage
- Anthropic Released Agent Skills – 深度解读
https://www.rohan-paul.com/p/anthropic-released-agent-skills-a - Teaching AI Agents Real-World Skills(Joshua Berkowitz)
https://joshuaberkowitz.us/blog/github-repos-8/teaching-ai-agents-real-world-skills-anthropic-s-revolutionary-skills-framework-1773 - Anthropic Says: Build Skills, Not Agents
https://www.outcomeops.ai/blogs/anthropic-says-build-skills-not-agents - BDTechTalks:Anthropic Agent Skills
https://bdtechtalks.com/2025/10/20/anthropic-agent-skills/amp/ - Towards AI Newsletter – TAI #175
https://newsletter.towardsai.net/p/tai-175-anthropics-agent-skills-offers - LinkedIn 技术解读(Ilnar Shafigullin)
https://www.linkedin.com/posts/ilnar-shafigullin-ph-d-b_equipping-agents-for-the-real-world-with-activity–W5GT - LinkedIn Pulse – TAI #175
https://www.linkedin.com/pulse/tai-175-anthropics-agent-skills-offers-z6vde - 今日头条中文解读
https://www.toutiao.com/article//
- YouTube:Agent Skills 解析
https://www.youtube.com/watch?v=CEvIs9y1uog - YouTube:Anthropic Agent Skills 讨论
https://www.youtube.com/watch?v=Ihoxov5x66k - YouTube:Agent Skills 深度拆解
https://www.youtube.com/watch?v=pbVTMlGSSYo - YouTube:AI 能力与认知讨论
https://www.youtube.com/watch?v=WC5S4cXI5WQ - YouTube:AI 思维与意识探讨
https://www.youtube.com/watch?v=WgzkkCDxYc0
- Reddit:Agent Skills 是不是“换皮工具”?
https://www.reddit.com/r/Anthropic/comments/1phrhs2/agent_skills_am_i_missing_something_or_is_it_just/ - Reddit:AI 意识相关讨论
https://www.reddit.com/r/Futurology/comments/1lb1quw/chinese_scientists_find_first_evidence_that_ai/ - AI Frontiers:AI Consciousness 的证据
https://ai-frontiers.org/articles/the-evidence-for-ai-consciousness-today - Facebook(SCMP):AI 认知能力讨论
https://www.facebook.com/scmp/posts/it-provides-new-evidence-in-a-debate-over-the-cognitive-capacity-of-ai-models-li/72372/

发布者:Ai探索者,转载请注明出处:https://javaforall.net/246018.html原文链接:https://javaforall.net
