本文分享了LLM在安全运营中的三个阶段:代笔期、共生期和自主期。作者认为共生期效果最佳,关键在于用代码校验LLM产出。Agent应定位为“规则的自动化生产者”,而非“分析师”。落地核心是:能用代码约束的事别用Prompt,让Agent通过生产确定性规则来“炼没”自己。
本文基于笔者在安全告警研判系统中的实践经验,聊聊把 LLM 和 Agent 引入安全运营后踩过的坑、想明白的事。不是教程,单纯个人思考、发现,希望对你有启迪。
- • 用 LLM 做安全运营,我经历了三个阶段:代笔期(LLM 帮写代码)、共生期(代码调用 LLM 自动生成规则)、自主期(Agent 自主分析告警)。共生期效果最好,自主期太不可控。
- • 能不能落地,关键看一件事:你能不能用代码来校验 LLM 的产出? 能校验的场景就大胆上,不能的就别指望它全自主。
- • 想约束 Agent 的行为,用代码,别用 Prompt。能用规则判定的,尽可能内化为规则。Prompt 里写一百遍「不许」、「应当」,不如代码层面来的实在。
- • Agent 最有价值的定位不是「永远在线的分析师」,而是「规则的自动化生产者」——和人运营一样,它的成功标志就是让自己要分析的case越来越少。
- 下面具体展开讲讲~
在安全运营中引入 LLM,我经历了三个阶段,每个阶段对 LLM 的定位完全不同:
这三个阶段不是替代关系,而是叠加关系——做到第三阶段,你仍然需要前两个阶段的能力作为基础。
代笔期:用 LLM 帮你写代码
用 Copilot、Claude 这类工具写代码,效率提升实实在在,一个人能干三个人的活。
拿我做的告警研判系统来说,规则引擎、数据库交互、API 对接这些模块,大量借助了 LLM 完成。整个规则引擎(支持 IP 匹配、关键词匹配、频率检测、威胁情报联动等十几种条件类型)加上配套的 YAML 规则配置体系,一个人半天就写完了,以前可能得一两周。
但本质没有变化——LLM 只是个更高效的 IDE 插件。你不提需求它不动,你不审代码它不知道对不对。
加速编码,但不改变运营模式。
共生期:代码调用 LLM,让系统学会自我进化
真正有意思的变化从第二阶段开始——LLM 不再只是开发阶段的工具,而是运行时系统的一部分。
安全运营有个核心痛点:告警类型千变万化,人工写规则永远追不上新模式。某天出现 20 条新告警,全是爬虫遍历金融接口参数导致的。你需要写一条规则来自动处理这类场景——条件要精确覆盖这 20 条,又不能误伤正常告警。手工写,半天起步。
于是我做了一个叫 rule/_iterate 的模块。它是一个手写的 ReAct 模式状态机——执行路径由代码严格控制,LLM 只在「生成规则」和「反思原因」两个节点被调用,不会跑偏。
它的工作方式是这样的:
关键在于:LLM 负责「想」,代码负责「验」。 规则好不好,不靠 LLM 自己说,靠代码在真实数据上跑一遍来判断。迭代该不该继续,也不靠 LLM 来决定,靠覆盖率指标说话。LLM 的每一次输出都会被代码「检验」,不合格就打回重来。
跑一次实际的 rule/_iterate,你就能直观感受到这个「想-验-改」的循环是怎么运作的。下面是一次真实运行的缩影(7 条爬虫告警作为 goodcase,34 条其他类型告警作为 badcase):
整个过程很有意思:LLM 先放得太松(覆盖不了),再放得太宽(误伤别人),最后在代码的反复校验下找到了精确的平衡点。它不是一次就做对的,而是在确定性指标的约束下,被「逼」着一步步做对的。
这个模式效果很好——产出稳定,质量可量化,每轮迭代的覆盖率变化都有迹可循。
自主期:让 Agent 主动发现问题——踩了坑
理想中的第三阶段是:Agent 自己巡检运营数据,发现聚集性事件,自动触发 rule/_iterate 生成规则。
我做了一个尝试:基于 claude-agent-sdk 做了一个叫 secops-analyzer 的 Agent。和 rule/_iterate 不同,它是一个黑盒 Agent,基于Skills——你通过 Skills(一份描述分析流程和约束的文档)告诉它「你是一个安全分析师」,然后把告警丢给它,它自主决定查什么数据、怎么分析、给什么结论。你不控制它的执行路径,LLM 自己驱动整个过程。
效果不好。核心问题两个:
一是 结果不收敛。明明日志数据已经足够判定是爬虫了,它还要去查威胁情报、查历史告警、查资产信息,越查越发散,结论反而更模糊。
二是 约束不住它。我在 Skills 里写了「绝对不允许创建新脚本,只能调用现有工具」,用了加粗、emoji、各种强调。结果呢?它还是自己创建脚本来「辅助分析」。它不是不理解你的约束,而是在具体执行中,「写个脚本跑一下」对它来说是更顺手的做法——你的约束在上下文变长之后就被「遗忘」或者「变通绕过」了。或者说,这里的主要问题是,它对我来说,是黑盒的。我不知道它是怎么想的,这让我有种不安全感。

踩完坑回头看,我发现了一个贯穿三个阶段的规律。
确定性校验才是锚
这三个阶段能不能落地,关键不在于 LLM 多聪明、Agent 自主性多高,而在于一个容易被忽略的问题:
你能不能为 LLM 的产出,建立一套确定性的校验机制?
rule/_iterate 之所以好使,是因为它的场景天然带有确定性指标——覆盖率 100%、误报率 0%。这是二值判断,LLM 再怎么发散,最后都被这个硬指标拉回来。
secops-analyzer 之所以效果差,是因为「这个告警到底是爬虫还是攻击」本身就是模糊的,连人工分析师之间都可能有分歧。没有硬性的校验标准,Agent 的发散就没有锚点。
推广一下:想用 LLM 自动化任何场景之前,先问自己——LLM 的产出,你能用代码判断对不对?能,就大胆上;不能,那 LLM 就只是个「提建议的助手」,别指望它完全自主。
能用代码管住的事,别指望 Prompt
顺着想下去,还有一个更实际的教训:我们到底应该用代码来约束 Agent,还是用 Prompt 来约束?
我的体感是,这两者完全不是一个量级的东西。
rule/_iterate 的约束全在代码里——状态机控制执行路径、覆盖率决定是否继续、最大迭代次数到了就停。这些约束 LLM 绕不过去,因为它压根接触不到控制逻辑。
secops-analyzer 的约束全在 Prompt 里——Skills 文档里的「不许创建脚本」「只能调用指定工具」。这些约束本质上是自然语言级别的「拜托」,LLM 随时可以「例外处理」。
能用代码控制的——Agent 能调什么工具、输出格式是什么、什么时候该停——绝对不要用 Prompt 去拜托它。Prompt 适合做软引导(分析思路、关注重点),硬约束必须交给代码。
这个点,其实和yhy有篇文章里提到的,我们应该更多的去用黑盒Agent还是可控的手搓Agent的思考有点相通写了很多 Agent 之后,我重新思考了一件事:我们到底在“造什么样的 Agent”?。在我这个场景,我还是希望他是可控的。不过,在类似bas的场景,我更希望它是完全不可控的,只给目标,手法不限的持续攻击。
聊完了坑和教训,说说我觉得这个项目里最值得分享的一个设计。
整个系统形成了这样一个闭环:
Agent 每成功分析一类场景,就把自己的「理解」蒸馏成一条确定性规则。从此以后,这类告警就不再需要 Agent 了。
这是一个「Agent 把自己炼没」的过程。
换个角度想,这其实就是一个从不确定到确定的过程。LLM 擅长处理模糊的、没见过的信息,但它的最终交付物应该是确定性的东西——规则、代码、策略。把不确定变成确定,然后用确定性去覆盖更多的不确定性,这才是 LLM 在运营场景中最有价值的定位。
实际效果也印证了这一点:项目初期规则覆盖率 0%,每条告警都要人工看;引入规则引擎后覆盖率到了 60%;rule/_iterate 持续跑了一段时间后,覆盖率到了 80% 以上。需要 Agent 介入的告警越来越少,成本在降,可控性在升。
Agent 的成功指标不是「它处理了多少告警」,而是「它让多少告警不再需要它处理」。
我觉得这个思路不只适用于安全运营,任何运营场景可能都可以参考——让 LLM 做「规则的自动化生产者」,而不是做「永远在线的分析师」。
最近 OpenClaw 很火,我琢磨了一下它和 Claude Code 这类工具的区别,想到了一些有意思的事,顺便聊聊。
起因
我在想一个具体的问题:如果我想让 Claude Code 主动去翻运营数据——看看最近哪类告警积压最多、现有规则有没有覆盖不足的地方——然后自己写代码来优化流程,技术上其实是可行的。
但问题是:怎么让它主动触发这个流程? Claude Code 本质上是「你说它做」,你不说它就不动。
OpenClaw 不一样。你可以给它设定时任务、它可以主动发起操作、可以持续跟进一件事。这就像一个「全职员工」和一个「按需请的顾问」的区别——顾问你不叫他他不来,员工可以自己琢磨事情。
但全职员工也有风险
最近各种视频展示了 OpenClaw 的翻车场景——自行删除使用者的邮件、擅自操作文件等。这让我联想到一件事:如果把这类持续运行的 Agent 当作「员工」,是不是可以借用公司管理员工的经验来管理它?
比如:
- • 权限管控——员工不能直接动生产数据库,Agent 也不该有这个权限
- • 审批流程——重大操作需要上级审批,Agent 的高风险操作也应该有审批
- • 操作审计——关键操作有日志可追溯
- • 试用期——新 Agent 先在沙箱里跑,稳了再上生产
但这个类比也有边界
员工不删库,不是因为技术上做不到,而是因为社会后果太严重——会被开除、会被追责。Agent 没有这层约束,它不会「害怕」任何后果。所以对 Agent 的约束必须是硬性的、代码级别的,不能指望它「自觉」。
还有一点:你可以随着时间逐步信任一个员工——他连续三个月表现好,你自然放心给他更多权限。但 Agent 不一样,今天分析得好不代表明天换个数据分布还行。对 Agent 的信任,不能像信任员工一样线性累积。 每一步放权都必须有代码级别的校验兜底。
这些想法还没有结论,但我觉得,随着持续运行的 Agent 越来越多,「如何管理 Agent」可能真会变成一个和「如何管理团队」同等重要的课题。
-
- 先做好共生期,再想自主期。 代码调用 LLM、用状态机约束执行路径,已经能解决大部分自动化需求,而且可控、可追溯。自主期(Agent 全自主)当前更适合做辅助,不适合做主力。
-
- 先找确定性指标,再引入 LLM。 想自动化的场景,先问:LLM 的产出能用代码校验吗?能,就先做。不能,就慎做。
-
- 能用代码管住的事,别指望 Prompt。 工具白名单、输出格式校验、迭代终止条件——全部用代码实现。Prompt 只做分析思路引导。
-
- 让 Agent 做「规则生产者」,而不是「分析师」。 成功指标不是「处理了多少告警」,而是「产出了多少可用规则、让多少场景不再需要 Agent」。
-
- 渐进放权,每步都要有兜底。 先 Agent 建议人执行,再 Agent 执行人抽检,最后 Agent 执行 Agent 校验。每一步放权,都要有对应的确定性校验机制。
本文基于 RCA Handler 项目实践。该项目使用 Python + ReAct 模式 + claude-agent-sdk gpt 教程 构建安全告警研判系统,实现了从自动入库、规则匹配、Agent 分析到规则自动迭代的完整闭环。
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。【保证100%免费】🆓
这份完整版的 AI 大模型学习资料已经上传CSDN,朋友们如果需要可以扫描下方二维码&点击下方CSDN官方认证链接免费领取 【保证100%免费】
读者福利: 👉👉CSDN大礼包:《最新AI大模型学习资源包》免费分享 👈👈
(👆👆👆安全链接,放心点击)
对于0基础小白入门:
如果你是零基础小白,想快速入门大模型是可以考虑的。
👉1.大模型入门学习思维导图👈
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。
对于从来没有接触过AI大模型的同学,我们帮你准备了详细的学习成长路线图&学习规划。可以说是最科学最系统的学习路线,大家跟着这个大的方向学习准没问题。(全套教程文末领取哈)
👉2.AGI大模型配套视频👈

👉3.大模型实际应用报告合集👈
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(全套教程文末领取哈)

👉4.大模型实战项目&项目源码👈
光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战项目来学习。(全套教程文末领取哈)
👉5.大模型经典学习电子书👈
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。(全套教程文末领取哈)
👉6.大模型面试题&答案👈
截至目前大模型已经超过200个,在大模型纵横的时代,不仅大模型技术越来越卷,就连大模型相关的岗位和面试也开始越来越卷了。为了让大家更容易上车大模型算法赛道,我总结了大模型常考的面试题。(全套教程文末领取哈)
只要你是真心想学AI大模型,我这份资料就可以无偿分享给你学习,我国在这方面的相关人才比较紧缺,大模型行业确实也需要更多的有志之士加入进来,我也真心希望帮助大家学好这门技术,如果日后有什么学习上的问题,欢迎找我交流,有技术上面的问题,我是很愿意去帮助大家的!
这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


这份完整版的 AI 大模型学习资料已经上传CSDN,朋友们如果需要可以扫描下方二维码&点击下方CSDN官方认证链接免费领取 【保证100%免费】
读者福利: 👉👉CSDN大礼包:《最新AI大模型学习资源包》免费分享 👈👈
CSDN,朋友们如果需要可以扫描下方二维码&点击下方CSDN官方认证链接免费领取 【保证100%免费】
读者福利: 👉👉CSDN大礼包:《最新AI大模型学习资源包》免费分享 👈👈
(👆👆👆安全链接,放心点击)
发布者:Ai探索者,转载请注明出处:https://javaforall.net/282802.html原文链接:https://javaforall.net
