Hello there, ('ω')ノ
記事
https://bitpanic.medium.com/how-i-use-llms-to-supercharge-my-bug-bounty-recon-3f9892c6b5a0
ねらい
バグバウンティは「調査(リコン)」と「報告(ストーリーテリング)」の両輪です。 この記事では、ハンターがLLM(大規模言語モデル)を活用して、データ整理・PoC作成・レポート改善・JS解析などを効率化し、最終的により多くのバグを発見し、高額バウンティを得るためのワークフローを紹介しています。
ストーリーと実践手順
1) カオスなリコン結果を整理する
- 操作:
amassやsubfinderが吐き出した数百行のサブドメインリストを LLM に貼り付け、要約を依頼。 - なぜ:ツール出力をそのまま読むのは効率が悪い。LLMに「面白いサブドメイン」「珍しい技術」を抜き出させると、即アタック対象が見える。
2) PoC(攻撃例)の雛形を即生成
- 操作:例えば SSRF を疑ったら「AWS メタデータにアクセスする curl を生成して」と LLM に依頼。
- なぜ:PoCをゼロから書く時間を節約し、最初の叩き台を手に入れる。テストを標準化できるのもメリット。
3) レポートを磨き、報奨金を増やす
- 操作:脆弱性報告の下書きを LLM に渡し、「もっとプロっぽく、影響を強調して書き直して」と指示。
- なぜ:バグ報告は説得の場。明快な文章はトリアージを早め、高額バウンティにつながる。
4) 難解なJavaScriptを解読させる
- 操作:難読化されたクライアントサイドの関数を LLM に解析させ、「隠しAPIやロジックがあるか」を確認。
- なぜ:JS解析は時間がかかる。LLMに第一段階の解釈を任せれば効率化できる。
5) スマートなワードリスト・ペイロード生成
- 操作:「Express.jsアプリでよくある隠し管理ルートを列挙して」と LLM に依頼。
- なぜ:既存の汎用ワードリストより、ターゲット特化型のペイロードはヒット率が高い。ffufやdirsearchと組み合わせると効果的。
6) わからない挙動を即質問
- 操作:未知の JWT トークンや変なHTTP応答を LLM に貼り付け、「意味と攻撃可能性」を聞く。
- なぜ:即席のチューターとして活用でき、リサーチの壁を素早く突破できる。
ボーナス:自分専用のGPTを訓練する
- 操作:過去のリコンノートやレポートでカスタムGPTを作成。
- なぜ:自分のワークフローに最適化されたLLMは、再現性の高い支援をしてくれる。
防御策(企業目線での注意点)
この記事はハンター視点ですが、防御側にとっても示唆があります:
- 攻撃者は大量のツール出力をAIで即整理している → セキュリティチームも同じ効率化が必要。
- LLMでPoCを標準化できる → 組織も社内検証を自動化すべき。
- レポート改善は攻撃者の交渉力UP → 守る側も「説得力ある修正理由」を用意しなければならない。
まとめ
この記事でのポイントは:
- リコンの洪水を要約して効率化。
- PoCを自動生成してスピードアップ。
- レポートを磨き上げて高額バウンティへ。
- JS解析やペイロード生成を支援させる。
- 学習補助としてLLMを使う。
- さらにカスタムGPTで専用化。
つまり、LLMは「バグを見つける」道具ではなく、バグを見つける人間を加速するエンジンだということです。
Best regards, (^^ゞ