news 2026/4/25 15:59:57

Burp Suite 插件 | 利用AI为复杂的 HTTP 请求自动生成 Fuzz 字典

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Burp Suite 插件 | 利用AI为复杂的 HTTP 请求自动生成 Fuzz 字典

工具介绍

Burp AI Fuzzer一个基于 AI 驱动的 Burp Suite 渗透测试辅助插件,旨在利用大语言模型(LLM)的上下文理解能力,为复杂的 HTTP 请求自动生成针对性的 Fuzz 字典。

工具功能

  • 智能字典生成:支持 OpenAI (GPT-3.5/4) 和 Claude (Opus/Sonnet) 等主流模型,自动解析请求上下文生成高质量 Fuzz 字典。
  • 强制规则约束:内置底层提示词约束,确保 AI 仅输出纯净的 Payload 列表,自动处理§标记位的针对性生成。
  • 多模板管理:内置通用、SQL 注入、XSS 等提示词模板,支持用户自定义新增、编辑和删除模板,模板数据持久化在本地 JSON 文件中。
  • 便捷标记工具:请求编辑器支持右键“一键标记”,快速为参数添加§定界符。
  • Intruder 深度集成:支持通过§标记 Fuzz 位置,一键发送至 Intruder,并作为 Intruder 的自定义 Payload 数据源。
  • 配置持久化:API 配置自动保存至 Burp 全局设置,模板数据独立存储,方便迁移和备份。

快速开始

1. 编译项目

项目使用 Maven 管理依赖,你可以直接运行:

mvn clean package

编译完成后,在target/目录下会生成ai-fuzzer-1.0-SNAPSHOT-jar-with-dependencies.jar

2. 安装插件

  1. 打开 Burp Suite。
  2. 进入Extensions->Installed->Add
  3. 选择Java类型,并加载上述编译好的 JAR 文件。

3. 配置 AI

  1. 切换到AI Fuzzer标签页。
  2. 填写你的 API Key、Base URL(如https://api.openai.com/v1)以及模型名称。
  3. 点击保存配置并点击测试连接确保 API 正常。

🛠 使用说明

1. 发送请求至 AI Fuzzer

在 Burp 的 Proxy、Repeater 或其他模块中,右键点击请求,选择Send to AI Fuzzer

2. 标记位置与模版选择

  1. 在插件编辑框中,使用§包裹你想测试的参数值,例如id=§1001§
  2. 选择合适的提示词模版,或点击管理模板自定义你的 Fuzz 逻辑。

3. 生成与集成爆破

  1. 点击生成 AI 字典,Payload 列表将自动填充。
  2. 点击发送至 Intruder,插件将自动同步请求和 Payload。

  1. 在 Intruder 的Payloads选项卡中,确保Payload typeExtension-generated,并选择AI Fuzzer Generated

工具下载

https://github.com/238469/burp-ai-fuzzer
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/22 2:32:01

超越“双重优越感”:AI元人文构想作为文明对话新语法

超越“双重优越感”:AI元人文构想作为文明对话新语法笔者:岐金兰摘要本文系统阐述了AI元人文构想,以应对传统“价值对齐”范式在智能时代面临的静态性与简化论困境。该构想以“意义行为原生论”为哲学基石,主张价值在具体行为互动…

作者头像 李华
网站建设 2026/4/20 2:33:53

Total-Text弯曲文本挑战:HunyuanOCR对非矩形区域的处理

HunyuanOCR如何破解弯曲文本识别难题 在文档图像处理领域,一个看似简单却长期困扰工程师的问题是:为什么一张带有弧形标题的包装图片,传统OCR总是“读歪”甚至漏掉整段文字? 这背后并非模型“看不见”,而是架构本身的局…

作者头像 李华
网站建设 2026/4/23 18:52:48

损失函数组合设计:各子任务权重分配的优化策略

损失函数组合设计:各子任务权重分配的优化策略 在当今多模态AI系统快速演进的背景下,端到端模型正悄然重塑传统OCR的技术格局。过去那种“先检测、再识别、最后抽取”的级联流程,虽然逻辑清晰,却饱受误差累积、部署复杂和跨语言支…

作者头像 李华
网站建设 2026/4/19 14:07:00

并发请求限制调整:优化HunyuanOCR vLLM推理服务器性能

并发请求限制调整:优化HunyuanOCR vLLM推理服务器性能 在AI模型日益走向生产落地的今天,一个常见的尴尬局面是:实验室里精度惊艳的大模型,一旦上线就频繁崩溃——尤其是面对真实用户并发上传图像时,GPU显存瞬间飙红&am…

作者头像 李华
网站建设 2026/4/20 2:33:09

知识蒸馏技术运用推测:小模型达到SOTA的背后秘密

知识蒸馏技术运用推测:小模型达到SOTA的背后秘密 在当今AI模型“军备竞赛”愈演愈烈的背景下,百亿、千亿参数的大模型频频刷新各项任务榜单。然而,当我们将目光从实验室转向真实业务场景——尤其是移动端、边缘设备和实时服务系统时&#xff…

作者头像 李华
网站建设 2026/4/21 21:37:55

大模型面试之手写Multi-Head Attention

1. 多头注意力机制(MHA)回顾 Multi-Head Attention 是 Transformer 架构的核心组件。它的目标是通过多个注意力头并行计算,让模型能从不同子空间捕捉信息。 在面试中,如果让你手写实现,一般是基于 PyTorch。 我们直接上手代码: import torch import torchnn as nn im…

作者头像 李华