PentestGPT-基于AI的自动化渗透测试代理

PentestGPT-基于AI的自动化渗透测试代理

警告

PentestGPT 仅为研究原型

PentestGPT是一个开创性地将生成型AI应用于网络安全的研究原型。请注意,某些第三方服务可能声称提供收费的PentestGPT产品——原始项目是免费的并且是开源的。

安装演示

观看 YouTube[1]

PentestGPT 实时演示

观看 YouTube[2]

自主代理 – 使用 Agentic 管道进行智能、自动化的渗透测试•会话持久性 – 保存并恢复渗透测试会话•以 Docker 为主 – 提供隔离的、可重复的环境,内置安全工具

正在开发中: 支持 OpenAI、Gemini 和其他大型语言模型(LLM)提供商的多模型支持

AI 驱动的挑战解决器 – 利用大型语言模型的高级推理能力进行渗透测试和 CTF 挑战•实时指导 – 跟踪代理在解决挑战时的每一步•多类别支持 – 支持 Web、加密、逆向工程、取证、PWN、特权提升等类别•实时反馈 – 通过活动更新实时观察 AI 的工作过程•可扩展架构 – 干净、模块化的设计,便于未来的扩展

前置条件

Docker(必需) – 安装 Docker[3]•LLM 提供商(选择一个):•从 Anthropic 控制台[4] 获取 API 密钥•Claude OAuth 登录(需要 Claude 订阅)•OpenRouter[5] 获取替代模型

安装步骤

1.克隆并构建

2.配置认证(仅第一次需要)

3.连接到容器

注意: –recurse-submodules 标志会下载基准测试套件。如果你已经没有使用此标志进行克隆,可以运行以下命令来更新子模块:

gpt 教程

尝试基准测试运行:

然后连接到容器并运行:

命令参考

键盘快捷键:帮助 | 暂停/恢复 | 退出

PentestGPT 支持将请求路由到运行在您主机上的本地 LLM 服务器(如 LM Studio、Ollama、text-generation-webui 等)。

前提条件

•本地 LLM 服务器,且支持 OpenAI 兼容的 API 接口。•LM Studio:启用服务器模式(默认端口 1234)•Ollama:运行 (默认端口 11434)

设置步骤

1.配置 PentestGPT 使用本地 LLM:

2.选择选项 4:Local LLM(本地 LLM) 3.启动您主机上的本地 LLM 服务器。 4.然后连接到容器:

自定义模型

编辑 文件来自定义配置:

•:您的 LLM 服务器 URL(默认:)•:您服务器上可用的模型名称•Router 部分:指定哪些模型处理哪些操作

故障排除

连接被拒绝:确保您的 LLM 服务器正在运行并监听配置的端口。•Docker 网络问题:从 Docker 访问主机服务时,请使用 (而不是 )。•查看 CCR 日志:在容器内运行以下命令查看日志:

前提条件

uv(必需) – Python 包管理器:•Claude Code CLI – 配置方式: 或 •教程: 使用本地模型与 Claude Code[6]

本地开发

项目命令

之前支持 OpenAI、Gemini、Deepseek 和 Ollama 的多 LLM 版本(v0.15)已归档在 目录中:

好了,今天的分享就到这里了,下期见!

References

观看 YouTube:https://www.youtube.com/watch?v=RUNmoXqBwVg 观看 YouTube:https://www.youtube.com/watch?v=cWi3Yb7RmZA Docker:https://docs.docker.com/get-started/get-docker/ Anthropic 控制台:https://console.anthropic.com/login?returnTo=%2F%3F OpenRouter:https://openrouter.ai/sign-in?redirect_url=https%3A%2F%2Fopenrouter.ai%2Fsettings%2Fkeys 教程: 使用本地模型与 Claude Code: https://docs.google.com/document/d/1ixK7x-wlr5t5TYZJdfm75UME5KnPCpS46boLkUXKg1w/edit?usp=sharing&pli=1&authuser=0

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/277466.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月14日 上午8:19
下一篇 2026年3月14日 上午8:20


相关推荐

关注全栈程序员社区公众号